• Mi Feed
  • Inicio
  • Lo Importante
  • Medios y Entretenimiento
Buscar

Stay Curious. Stay Wanture.

© 2026 Wanture. All rights reserved.

  • Terms of Use
  • Privacy Policy
Ciencia/Mente
La IA falla donde los humanos brillan: por qué no entiende la interacción social

Más de 350 modelos probados no logran interpretar señales sociales básicas que tu cerebro procesa en milisegundos

7 noviembre 2025

—

Explainer

Valeria Gómez
banner

Un estudio de Johns Hopkins revela que la inteligencia artificial actual no puede comprender interacciones sociales dinámicas que para los humanos son automáticas. Descubre por qué modelos avanzados fallan en tareas simples como detectar colaboración o intenciones, qué significa esto para vehículos autónomos y robots asistentes en México, y qué aspecto fundamental del cerebro humano aún no podemos replicar en las máquinas.

telegram-cloud-photo-size-2-5211058007943351500-y

Resumen:

  • Estudio de Johns Hopkins revela que la IA actual falla rotundamente en comprender interacciones sociales humanas
  • Modelos de IA no logran interpretar señales no verbales y dinámicas sociales complejas
  • Investigadores buscan nuevos enfoques para desarrollar IA con percepción social más avanzada

Imagina que estás en un mercado lleno de gente: alguien te pasa una bolsa, otra persona señala hacia un puesto, y tú entiendes al instante quién colabora con quién, quién espera su turno, quién está distraído. Tu cerebro procesa estas señales sociales en milisegundos, sin esfuerzo.

Ahora imagina que le pides a una inteligencia artificial que haga lo mismo. Según un estudio reciente de la Universidad Johns Hopkins, la IA actual falla rotundamente en esta tarea que para los humanos es casi automática.

Qué reveló el experimento de Johns Hopkins

Científicos de la Universidad Johns Hopkins diseñaron un experimento sencillo pero revelador para medir qué tan cerca está la IA de comprender la interacción social humana.

La respuesta fue contundente: ni siquiera cerca.

El estudio utilizó videos de apenas tres segundos. En ellos, personas realizaban tareas simples: pasarse objetos, trabajar juntas, actuar de forma independiente. Nada complejo, solo interacciones cotidianas.

El diseño del estudio

Los investigadores mostraron clips de video cortos a participantes humanos. Los participantes calificaron aspectos clave de la interacción social en una escala del 1 al 5: ¿quién colabora con quién? ¿Quién presta atención a quién? ¿Qué intenciones se perciben?

Luego vino la prueba de fuego para la IA. Los científicos utilizaron más de 350 modelos de inteligencia artificial —incluyendo grandes modelos de lenguaje (sistemas entrenados con millones de textos para procesar y generar lenguaje humano) y modelos generativos (IA que crea contenido nuevo basándose en patrones aprendidos)— para predecir cómo los humanos calificarían esos mismos videos.

El resultado: ningún modelo de IA logró interpretar correctamente el comportamiento social dinámico.

Cómo funciona la percepción social humana

Para entender por qué la IA falla, primero hay que comprender qué hace el cerebro humano cuando observa una interacción social.

Tu cerebro no solo ve movimientos: detecta patrones, anticipa intenciones, lee señales no verbales como la dirección de la mirada, la postura corporal, el ritmo de los gestos. Este proceso, conocido como visión social dinámica, es una habilidad que desarrollamos desde la infancia y que nos permite navegar el mundo social con fluidez.

Señales no verbales que la IA no capta

Los modelos de IA actuales pueden reconocer objetos, rostros, incluso emociones básicas en imágenes estáticas. Pero cuando se trata de interpretar la dinámica de una interacción en tiempo real, carecen de algo fundamental: la capacidad de integrar múltiples señales contextuales y temporales para construir una narrativa social coherente.

Es como si la IA pudiera leer las palabras de una conversación pero no captar el tono, las pausas, o el lenguaje corporal que le dan significado.

Por qué esto importa para la tecnología actual

Este hallazgo no es solo un dato curioso de laboratorio. Tiene implicaciones directas para tecnologías que ya están en desarrollo o en uso.

Vehículos autónomos y robots asistentes

Piensa en un vehículo autónomo que debe decidir si un peatón va a cruzar la calle. No basta con detectar su presencia: el sistema debe interpretar su lenguaje corporal, su mirada, su intención. Un error de interpretación puede ser fatal.

O considera un robot asistente en un hospital. Si no puede captar la frustración en el rostro de un paciente o la urgencia en el gesto de un médico, su utilidad se reduce drásticamente.

Para México, esto significa que tecnologías prometidas como taxis autónomos o asistentes robóticos en clínicas rurales aún enfrentan barreras fundamentales antes de ser confiables en entornos sociales reales.

Qué falta en los modelos de IA modernos

Los investigadores de Johns Hopkins concluyen que los modelos de IA actuales carecen de algún aspecto fundamental que permite al cerebro humano interpretar sin errores y rápidamente los aspectos de la interacción social dinámica.

¿Qué es ese «algo»? Aún no está claro. Podría ser la experiencia corporal —el hecho de que los humanos tenemos cuerpos y entendemos el movimiento desde dentro—. Podría ser la empatía evolutiva, desarrollada durante millones de años de vida en grupos sociales. O podría ser una combinación de factores que aún no hemos identificado.

Lo que sí está claro es que entrenar modelos con más datos o hacerlos más grandes no resuelve el problema por sí solo.

Qué sigue: el camino hacia una IA socialmente consciente

El estudio abre preguntas más que respuestas.

¿Cómo podemos enseñar a la IA a «ver» como vemos nosotros? ¿Es posible replicar la percepción social sin replicar la experiencia humana completa?

Algunos enfoques prometedores incluyen:

  • IA multimodal: sistemas que integran video, audio y texto para captar más contexto.
  • Aprendizaje por refuerzo social: entrenar modelos mediante interacciones simuladas con humanos.
  • Arquitecturas inspiradas en neurociencia: diseñar redes que imiten más de cerca cómo el cerebro procesa información social.

Pero por ahora, la brecha entre la percepción humana y la artificial en contextos sociales sigue siendo enorme.

¿Qué aspecto fundamental del cerebro humano falta replicar? ¿Es la experiencia corporal, la empatía evolutiva, o algo aún no identificado? Mientras los científicos buscan respuestas, una cosa queda clara: en el mercado de la interacción social, los humanos seguimos siendo insuperables.

Tema

AI Self-Awareness Research

IA alcanza nivel de lingüista en análisis gramatical

15 diciembre 2025

La IA no es neutral. Nunca lo fue

1 diciembre 2025

Claude de Anthropic puede ver sus propios pensamientos

2 noviembre 2025

¿De qué trata esto?

  • Explainer/
  • Valeria Gómez/
  • Ciencia/
  • Mente

Feed

    iPhone 18 Pro con cámara de apertura variable y iOS 27!

    Bloomberg prevé mayor versatilidad fotográfica para usuarios mexicanos

    Javier Moraleshace 3 días

    ¿Psicólogo, terapeuta o consejero? Descubre la diferencia

    Guía práctica basada en datos 2025‑2026 para elegir el apoyo mental adecuado

    Sofía Martínezhace 3 días

    Samsung lanza Galaxy Glasses Jinju 2026 sin pantalla

    Samsung anunció el lanzamiento de sus Galaxy Glasses Jinju en 2026, un dispositivo sin visor que apuesta por una larga duración de batería y un peso ligero. Equipadas con el procesador Qualcomm Snapdragon AR1, cámara Sony IMX681 de 12 MP, audio de conducción ósea y asistente Gemini Nano, buscan reemplazar a las Ray‑Ban Meta en México, con soporte técnico local y garantía PROFECO.

    Samsung lanza Galaxy Glasses Jinju 2026 sin pantalla
    Javier Moraleshace 5 días

    Sony obliga verificación DRM cada 30 días en juegos digitales

    El soporte de PlayStation confirmó en abril de 2026 que, tras la actualización de marzo, los juegos digitales de PS4 y PS5 comprados después deben validar su licencia en línea cada 30 días. Si la consola permanece desconectada, el título no arranca hasta revalidarse. Sony no ha emitido comunicado oficial, pero medios mexicanos y el chat de soporte confirman la política.

    Sony obliga verificación DRM cada 30 días en juegos digitales
    Javier Moraleshace 5 días

    30 minutos diarios bajan glucosa y alargan longevidad

    Ejercicio, sueño y suplementos con evidencia para México

    Lucía Paredeshace 5 días

    Cat Gatekeeper versión 1.0 llega a Chrome en México

    El 23 de abril de 2026, ZOKUZOKU lanzó la versión 1.0 de Cat Gatekeeper, una extensión gratuita para Chrome que aparece como un gato gordo cuando el usuario supera el tiempo programado en YouTube, X, Reddit, Facebook, Threads y Bluesky. La herramienta, sin anuncios ni recolección de datos, permite pausar el consumo digital de forma lúdica y mantiene abiertas otras pestañas.

    Cat Gatekeeper versión 1.0 llega a Chrome en México
    Javier Moraleshace 6 días

    Porsche Cayenne S Coupé Electric llega a México con 700 hp

    Porsche lanza en abril 2026 el Cayenne S Coupé Electric con doble motor que entrega 700 hp y batería de 100 kWh con carga rápida de 10 a 80 % en 25 minutos. El SUV cero emisiones combina silueta deportiva tipo 911 con espacio para cinco pasajeros y 625 litros de cajuela. Las entregas arrancan en mayo 2026 en agencias de CDMX y Monterrey, con lista de espera de 4 a 6 meses.

    Porsche Cayenne S Coupé Electric llega a México con 700 hp
    Carla Mendozahace 7 días

    Intel muestra laptop Wildcat Lake fanless con 16 GB RAM

    Intel presentó el 23 abril de 2026 una laptop de referencia con procesador Wildcat Lake, combinando 2 Cougar Cove P‑cores y 4 LPE‑cores, GPU Xe de 2 núcleos, NPU de 17 TOPS y memoria LPDDR5X. Con chasis de aluminio, diseño fanless de 11 W y 16 GB de RAM soldada, el prototipo busca ofrecer una alternativa Windows al MacBook Neo de Apple en el mercado educativo mexicano.

    Intel muestra laptop Wildcat Lake fanless con 16 GB RAM
    Javier Morales26 abril 2026

    Filtración del Steam Controller 2 revela diseño y salida

    TechyTalk subió el 25 abril una reseña no autorizada del Steam Controller 2, mostrando su diseño con dos trackpads, sticks magnéticos TMR, giroscopio de seis ejes y haptics avanzados. La filtración surgió antes de que Valve confirmara el precio o la fecha, y plantea dudas sobre su disponibilidad en México, donde el modelo original nunca se lanzó oficialmente.

    Filtración del Steam Controller 2 revela diseño y salida
    Javier Morales26 abril 2026

    BMW lanza iX3 Flow con capó E‑Ink Prism el 24‑abr‑2026

    BMW presentó la edición iX3 Flow el 24 de abril de 2026 en el Auto Show de Beijing, con un capó E‑Ink Prism que ofrece ocho diseños preestablecidos activables con un botón. La solución permite cambiar la apariencia del carro sin repintar, una ventaja para México, donde la personalización visual crece y la versión estándar del iX3 ya se vende desde $1,650,000 MXN.

    BMW lanza iX3 Flow con capó E‑Ink Prism el 24‑abr‑2026
    Javier Morales25 abril 2026
    Loading...
Ciencia/Mente

La IA falla donde los humanos brillan: por qué no entiende la interacción social

Más de 350 modelos probados no logran interpretar señales sociales básicas que tu cerebro procesa en milisegundos

noviembre 7, 2025, 6:14 pm

Un estudio de Johns Hopkins revela que la inteligencia artificial actual no puede comprender interacciones sociales dinámicas que para los humanos son automáticas. Descubre por qué modelos avanzados fallan en tareas simples como detectar colaboración o intenciones, qué significa esto para vehículos autónomos y robots asistentes en México, y qué aspecto fundamental del cerebro humano aún no podemos replicar en las máquinas.

telegram-cloud-photo-size-2-5211058007943351500-y

Resumen

  • Estudio de Johns Hopkins revela que la IA actual falla rotundamente en comprender interacciones sociales humanas
  • Modelos de IA no logran interpretar señales no verbales y dinámicas sociales complejas
  • Investigadores buscan nuevos enfoques para desarrollar IA con percepción social más avanzada

Imagina que estás en un mercado lleno de gente: alguien te pasa una bolsa, otra persona señala hacia un puesto, y tú entiendes al instante quién colabora con quién, quién espera su turno, quién está distraído. Tu cerebro procesa estas señales sociales en milisegundos, sin esfuerzo.

Ahora imagina que le pides a una inteligencia artificial que haga lo mismo. Según un estudio reciente de la Universidad Johns Hopkins, la IA actual falla rotundamente en esta tarea que para los humanos es casi automática.

Qué reveló el experimento de Johns Hopkins

Científicos de la Universidad Johns Hopkins diseñaron un experimento sencillo pero revelador para medir qué tan cerca está la IA de comprender la interacción social humana.

La respuesta fue contundente: ni siquiera cerca.

El estudio utilizó videos de apenas tres segundos. En ellos, personas realizaban tareas simples: pasarse objetos, trabajar juntas, actuar de forma independiente. Nada complejo, solo interacciones cotidianas.

El diseño del estudio

Los investigadores mostraron clips de video cortos a participantes humanos. Los participantes calificaron aspectos clave de la interacción social en una escala del 1 al 5: ¿quién colabora con quién? ¿Quién presta atención a quién? ¿Qué intenciones se perciben?

Luego vino la prueba de fuego para la IA. Los científicos utilizaron más de 350 modelos de inteligencia artificial —incluyendo grandes modelos de lenguaje (sistemas entrenados con millones de textos para procesar y generar lenguaje humano) y modelos generativos (IA que crea contenido nuevo basándose en patrones aprendidos)— para predecir cómo los humanos calificarían esos mismos videos.

El resultado: ningún modelo de IA logró interpretar correctamente el comportamiento social dinámico.

Cómo funciona la percepción social humana

Para entender por qué la IA falla, primero hay que comprender qué hace el cerebro humano cuando observa una interacción social.

Tu cerebro no solo ve movimientos: detecta patrones, anticipa intenciones, lee señales no verbales como la dirección de la mirada, la postura corporal, el ritmo de los gestos. Este proceso, conocido como visión social dinámica, es una habilidad que desarrollamos desde la infancia y que nos permite navegar el mundo social con fluidez.

Señales no verbales que la IA no capta

Los modelos de IA actuales pueden reconocer objetos, rostros, incluso emociones básicas en imágenes estáticas. Pero cuando se trata de interpretar la dinámica de una interacción en tiempo real, carecen de algo fundamental: la capacidad de integrar múltiples señales contextuales y temporales para construir una narrativa social coherente.

Es como si la IA pudiera leer las palabras de una conversación pero no captar el tono, las pausas, o el lenguaje corporal que le dan significado.

Por qué esto importa para la tecnología actual

Este hallazgo no es solo un dato curioso de laboratorio. Tiene implicaciones directas para tecnologías que ya están en desarrollo o en uso.

Vehículos autónomos y robots asistentes

Piensa en un vehículo autónomo que debe decidir si un peatón va a cruzar la calle. No basta con detectar su presencia: el sistema debe interpretar su lenguaje corporal, su mirada, su intención. Un error de interpretación puede ser fatal.

O considera un robot asistente en un hospital. Si no puede captar la frustración en el rostro de un paciente o la urgencia en el gesto de un médico, su utilidad se reduce drásticamente.

Para México, esto significa que tecnologías prometidas como taxis autónomos o asistentes robóticos en clínicas rurales aún enfrentan barreras fundamentales antes de ser confiables en entornos sociales reales.

Qué falta en los modelos de IA modernos

Los investigadores de Johns Hopkins concluyen que los modelos de IA actuales carecen de algún aspecto fundamental que permite al cerebro humano interpretar sin errores y rápidamente los aspectos de la interacción social dinámica.

¿Qué es ese «algo»? Aún no está claro. Podría ser la experiencia corporal —el hecho de que los humanos tenemos cuerpos y entendemos el movimiento desde dentro—. Podría ser la empatía evolutiva, desarrollada durante millones de años de vida en grupos sociales. O podría ser una combinación de factores que aún no hemos identificado.

Lo que sí está claro es que entrenar modelos con más datos o hacerlos más grandes no resuelve el problema por sí solo.

Qué sigue: el camino hacia una IA socialmente consciente

El estudio abre preguntas más que respuestas.

¿Cómo podemos enseñar a la IA a «ver» como vemos nosotros? ¿Es posible replicar la percepción social sin replicar la experiencia humana completa?

Algunos enfoques prometedores incluyen:

  • IA multimodal: sistemas que integran video, audio y texto para captar más contexto.
  • Aprendizaje por refuerzo social: entrenar modelos mediante interacciones simuladas con humanos.
  • Arquitecturas inspiradas en neurociencia: diseñar redes que imiten más de cerca cómo el cerebro procesa información social.

Pero por ahora, la brecha entre la percepción humana y la artificial en contextos sociales sigue siendo enorme.

¿Qué aspecto fundamental del cerebro humano falta replicar? ¿Es la experiencia corporal, la empatía evolutiva, o algo aún no identificado? Mientras los científicos buscan respuestas, una cosa queda clara: en el mercado de la interacción social, los humanos seguimos siendo insuperables.

Tema

AI Self-Awareness Research

IA alcanza nivel de lingüista en análisis gramatical

15 diciembre 2025

La IA no es neutral. Nunca lo fue

1 diciembre 2025

Claude de Anthropic puede ver sus propios pensamientos

2 noviembre 2025

¿De qué trata esto?

  • Explainer/
  • Valeria Gómez/
  • Ciencia/
  • Mente

Feed

    iPhone 18 Pro con cámara de apertura variable y iOS 27!

    Bloomberg prevé mayor versatilidad fotográfica para usuarios mexicanos

    Javier Moraleshace 3 días

    ¿Psicólogo, terapeuta o consejero? Descubre la diferencia

    Guía práctica basada en datos 2025‑2026 para elegir el apoyo mental adecuado

    Sofía Martínezhace 3 días

    Samsung lanza Galaxy Glasses Jinju 2026 sin pantalla

    Samsung anunció el lanzamiento de sus Galaxy Glasses Jinju en 2026, un dispositivo sin visor que apuesta por una larga duración de batería y un peso ligero. Equipadas con el procesador Qualcomm Snapdragon AR1, cámara Sony IMX681 de 12 MP, audio de conducción ósea y asistente Gemini Nano, buscan reemplazar a las Ray‑Ban Meta en México, con soporte técnico local y garantía PROFECO.

    Samsung lanza Galaxy Glasses Jinju 2026 sin pantalla
    Javier Moraleshace 5 días

    Sony obliga verificación DRM cada 30 días en juegos digitales

    El soporte de PlayStation confirmó en abril de 2026 que, tras la actualización de marzo, los juegos digitales de PS4 y PS5 comprados después deben validar su licencia en línea cada 30 días. Si la consola permanece desconectada, el título no arranca hasta revalidarse. Sony no ha emitido comunicado oficial, pero medios mexicanos y el chat de soporte confirman la política.

    Sony obliga verificación DRM cada 30 días en juegos digitales
    Javier Moraleshace 5 días

    30 minutos diarios bajan glucosa y alargan longevidad

    Ejercicio, sueño y suplementos con evidencia para México

    Lucía Paredeshace 5 días

    Cat Gatekeeper versión 1.0 llega a Chrome en México

    El 23 de abril de 2026, ZOKUZOKU lanzó la versión 1.0 de Cat Gatekeeper, una extensión gratuita para Chrome que aparece como un gato gordo cuando el usuario supera el tiempo programado en YouTube, X, Reddit, Facebook, Threads y Bluesky. La herramienta, sin anuncios ni recolección de datos, permite pausar el consumo digital de forma lúdica y mantiene abiertas otras pestañas.

    Cat Gatekeeper versión 1.0 llega a Chrome en México
    Javier Moraleshace 6 días

    Porsche Cayenne S Coupé Electric llega a México con 700 hp

    Porsche lanza en abril 2026 el Cayenne S Coupé Electric con doble motor que entrega 700 hp y batería de 100 kWh con carga rápida de 10 a 80 % en 25 minutos. El SUV cero emisiones combina silueta deportiva tipo 911 con espacio para cinco pasajeros y 625 litros de cajuela. Las entregas arrancan en mayo 2026 en agencias de CDMX y Monterrey, con lista de espera de 4 a 6 meses.

    Porsche Cayenne S Coupé Electric llega a México con 700 hp
    Carla Mendozahace 7 días

    Intel muestra laptop Wildcat Lake fanless con 16 GB RAM

    Intel presentó el 23 abril de 2026 una laptop de referencia con procesador Wildcat Lake, combinando 2 Cougar Cove P‑cores y 4 LPE‑cores, GPU Xe de 2 núcleos, NPU de 17 TOPS y memoria LPDDR5X. Con chasis de aluminio, diseño fanless de 11 W y 16 GB de RAM soldada, el prototipo busca ofrecer una alternativa Windows al MacBook Neo de Apple en el mercado educativo mexicano.

    Intel muestra laptop Wildcat Lake fanless con 16 GB RAM
    Javier Morales26 abril 2026

    Filtración del Steam Controller 2 revela diseño y salida

    TechyTalk subió el 25 abril una reseña no autorizada del Steam Controller 2, mostrando su diseño con dos trackpads, sticks magnéticos TMR, giroscopio de seis ejes y haptics avanzados. La filtración surgió antes de que Valve confirmara el precio o la fecha, y plantea dudas sobre su disponibilidad en México, donde el modelo original nunca se lanzó oficialmente.

    Filtración del Steam Controller 2 revela diseño y salida
    Javier Morales26 abril 2026

    BMW lanza iX3 Flow con capó E‑Ink Prism el 24‑abr‑2026

    BMW presentó la edición iX3 Flow el 24 de abril de 2026 en el Auto Show de Beijing, con un capó E‑Ink Prism que ofrece ocho diseños preestablecidos activables con un botón. La solución permite cambiar la apariencia del carro sin repintar, una ventaja para México, donde la personalización visual crece y la versión estándar del iX3 ya se vende desde $1,650,000 MXN.

    BMW lanza iX3 Flow con capó E‑Ink Prism el 24‑abr‑2026
    Javier Morales25 abril 2026
    Loading...
banner