• Mi Feed
  • Inicio
  • Lo Importante
  • Medios y Entretenimiento
Buscar

Stay Curious. Stay Wanture.

© 2026 Wanture. Todos los derechos reservados.

  • Términos de uso
  • Política de privacidad
banner
Ciencia/Mente

La IA falla donde los humanos brillan: por qué no entiende la interacción social

Más de 350 modelos probados no logran interpretar señales sociales básicas que tu cerebro procesa en milisegundos

noviembre 7, 2025, 6:14 pm

Un estudio de Johns Hopkins revela que la inteligencia artificial actual no puede comprender interacciones sociales dinámicas que para los humanos son automáticas. Descubre por qué modelos avanzados fallan en tareas simples como detectar colaboración o intenciones, qué significa esto para vehículos autónomos y robots asistentes en México, y qué aspecto fundamental del cerebro humano aún no podemos replicar en las máquinas.

telegram-cloud-photo-size-2-5211058007943351500-y

Resumen

  • Estudio de Johns Hopkins revela que la IA actual falla rotundamente en comprender interacciones sociales humanas
  • Modelos de IA no logran interpretar señales no verbales y dinámicas sociales complejas
  • Investigadores buscan nuevos enfoques para desarrollar IA con percepción social más avanzada

Imagina que estás en un mercado lleno de gente: alguien te pasa una bolsa, otra persona señala hacia un puesto, y tú entiendes al instante quién colabora con quién, quién espera su turno, quién está distraído. Tu cerebro procesa estas señales sociales en milisegundos, sin esfuerzo.

Ahora imagina que le pides a una inteligencia artificial que haga lo mismo. Según un estudio reciente de la Universidad Johns Hopkins, la IA actual falla rotundamente en esta tarea que para los humanos es casi automática.

Qué reveló el experimento de Johns Hopkins

Científicos de la Universidad Johns Hopkins diseñaron un experimento sencillo pero revelador para medir qué tan cerca está la IA de comprender la interacción social humana.

La respuesta fue contundente: ni siquiera cerca.

El estudio utilizó videos de apenas tres segundos. En ellos, personas realizaban tareas simples: pasarse objetos, trabajar juntas, actuar de forma independiente. Nada complejo, solo interacciones cotidianas.

El diseño del estudio

Los investigadores mostraron clips de video cortos a participantes humanos. Los participantes calificaron aspectos clave de la interacción social en una escala del 1 al 5: ¿quién colabora con quién? ¿Quién presta atención a quién? ¿Qué intenciones se perciben?

Luego vino la prueba de fuego para la IA. Los científicos utilizaron más de 350 modelos de inteligencia artificial —incluyendo grandes modelos de lenguaje (sistemas entrenados con millones de textos para procesar y generar lenguaje humano) y modelos generativos (IA que crea contenido nuevo basándose en patrones aprendidos)— para predecir cómo los humanos calificarían esos mismos videos.

El resultado: ningún modelo de IA logró interpretar correctamente el comportamiento social dinámico.

Cómo funciona la percepción social humana

Para entender por qué la IA falla, primero hay que comprender qué hace el cerebro humano cuando observa una interacción social.

Tu cerebro no solo ve movimientos: detecta patrones, anticipa intenciones, lee señales no verbales como la dirección de la mirada, la postura corporal, el ritmo de los gestos. Este proceso, conocido como visión social dinámica, es una habilidad que desarrollamos desde la infancia y que nos permite navegar el mundo social con fluidez.

Señales no verbales que la IA no capta

Los modelos de IA actuales pueden reconocer objetos, rostros, incluso emociones básicas en imágenes estáticas. Pero cuando se trata de interpretar la dinámica de una interacción en tiempo real, carecen de algo fundamental: la capacidad de integrar múltiples señales contextuales y temporales para construir una narrativa social coherente.

Es como si la IA pudiera leer las palabras de una conversación pero no captar el tono, las pausas, o el lenguaje corporal que le dan significado.

Por qué esto importa para la tecnología actual

Este hallazgo no es solo un dato curioso de laboratorio. Tiene implicaciones directas para tecnologías que ya están en desarrollo o en uso.

Vehículos autónomos y robots asistentes

Piensa en un vehículo autónomo que debe decidir si un peatón va a cruzar la calle. No basta con detectar su presencia: el sistema debe interpretar su lenguaje corporal, su mirada, su intención. Un error de interpretación puede ser fatal.

O considera un robot asistente en un hospital. Si no puede captar la frustración en el rostro de un paciente o la urgencia en el gesto de un médico, su utilidad se reduce drásticamente.

Para México, esto significa que tecnologías prometidas como taxis autónomos o asistentes robóticos en clínicas rurales aún enfrentan barreras fundamentales antes de ser confiables en entornos sociales reales.

Qué falta en los modelos de IA modernos

Los investigadores de Johns Hopkins concluyen que los modelos de IA actuales carecen de algún aspecto fundamental que permite al cerebro humano interpretar sin errores y rápidamente los aspectos de la interacción social dinámica.

¿Qué es ese «algo»? Aún no está claro. Podría ser la experiencia corporal —el hecho de que los humanos tenemos cuerpos y entendemos el movimiento desde dentro—. Podría ser la empatía evolutiva, desarrollada durante millones de años de vida en grupos sociales. O podría ser una combinación de factores que aún no hemos identificado.

Lo que sí está claro es que entrenar modelos con más datos o hacerlos más grandes no resuelve el problema por sí solo.

Qué sigue: el camino hacia una IA socialmente consciente

El estudio abre preguntas más que respuestas.

¿Cómo podemos enseñar a la IA a «ver» como vemos nosotros? ¿Es posible replicar la percepción social sin replicar la experiencia humana completa?

Algunos enfoques prometedores incluyen:

  • IA multimodal: sistemas que integran video, audio y texto para captar más contexto.
  • Aprendizaje por refuerzo social: entrenar modelos mediante interacciones simuladas con humanos.
  • Arquitecturas inspiradas en neurociencia: diseñar redes que imiten más de cerca cómo el cerebro procesa información social.

Pero por ahora, la brecha entre la percepción humana y la artificial en contextos sociales sigue siendo enorme.

¿Qué aspecto fundamental del cerebro humano falta replicar? ¿Es la experiencia corporal, la empatía evolutiva, o algo aún no identificado? Mientras los científicos buscan respuestas, una cosa queda clara: en el mercado de la interacción social, los humanos seguimos siendo insuperables.

Tema

AI Self-Awareness Research

IA alcanza nivel de lingüista en análisis gramatical

15 diciembre 2025

IA alcanza nivel de lingüista en análisis gramatical

La IA no es neutral. Nunca lo fue

1 diciembre 2025

La IA no es neutral. Nunca lo fue

Claude de Anthropic puede ver sus propios pensamientos

2 noviembre 2025

Claude de Anthropic puede ver sus propios pensamientos

Feed

    ¿Por qué antojas dulce al anochecer? La ciencia del impulso

    Entiende cómo glucosa y dopamina generan el antojo nocturno y dieta lo controla

    hace alrededor de 12 horas
    Instala y Configura PowerToys 0.97 en 20 Minutos

    Instala y Configura PowerToys 0.97 en 20 Minutos

    Guía paso a paso para organizar ventanas, buscar archivos y automatizar sin costo

    hace alrededor de 16 horas

    TikTok y Apple Music activan «Play Full Song»

    El 11 de marzo de 2026 TikTok y Apple Music presentaron la integración «Play Full Song», que permite reproducir la canción completa dentro de la app sin cambiar de plataforma. El mini‑reproductor, basado en Apple MusicKit, registra cada reproducción como stream oficial. La función llegará a México en las próximas semanas tras actualizar la app y tener suscripción activa.

    TikTok y Apple Music activan «Play Full Song»
    hace alrededor de 19 horas

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM

    Microsoft introducirá Xbox Full Screen Experience en Windows 11 24H2 y 25H2 a partir de abril 2026. Al cerrar el Explorador, el modo libera ≈2 GB de RAM, mejorando la fluidez de juegos exigentes. Se activa en Configuración > Juegos o con Win + F11 y está disponible en equipos ASUS ROG Xbox Ally, MSI Claw (A1M, 7 AI+, 8 AI+, A8) y Lenovo Legion Go con la versión requerida.

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM
    hace alrededor de 19 horas

    Klotho Neurosciences lanza pruebas para medir edad biológica

    El 24 de febrero de 2026, Klotho Neurosciences lanzó dos pruebas genómicas que analizan la metilación del ADN del gen alfa‑Klotho y combinan datos de nueve genes de longevidad mediante IA, con sangre periférica. La medida de edad biológica permitirá asignar participantes en ensayos de ELA y Alzheimer, reduciendo la variabilidad y acelerando decisiones regulatorias.

    Klotho Neurosciences lanza pruebas para medir edad biológica
    hace 1 día

    MAZ suspende el Moscovich 5 por consumo excesivo

    El 5 de marzo de 2026, MAZ anunció la suspensión de la producción del SUV Moscovich 5 en Moscú tras registrar consumos de 9,5‑11,2 l/100 km, por encima del estándar del segmento. La empresa liquidará los vehículos en ensamblaje, reciclará piezas y ofrecerá descuentos del 15‑20 %. Mientras tanto, el Moscovich 3, con motor 1,6 L y consumo de 8,1 l/100 km, sigue en desarrollo.

    MAZ suspende el Moscovich 5 por consumo excesivo
    hace 1 día

    Meta compra Moltbook y apunta a IA empresarial en México

    Meta anunció el 5 de marzo de 2026 la compra de Moltbook, la plataforma mexicana donde los agentes de IA conversan de forma autónoma. Con la integración al Meta Superintelligence Labs, la empresa ofrecerá a compañías mexicanas herramientas para automatizar correos, clasificar documentos y generar reportes sin programar, reduciendo horas manuales y agilizando decisiones estratégicas.

    Meta compra Moltbook y apunta a IA empresarial en México
    hace 1 día

    Adobe lanza asistente IA en Photoshop versión beta

    Adobe lanzó la beta del asistente IA de Photoshop, accesible en la web y en apps móviles. Con texto se pueden eliminar objetos, cambiar fondos o ajustar iluminación sin usar paneles. Los suscriptores tienen uso ilimitado hasta el 9 de abril de 2026; los gratuitos disponen de 20 generaciones. La herramienta baja la barrera técnica, para el 37 % de profesionales que usan IA en México.

    Adobe lanza asistente IA en Photoshop versión beta
    hace 2 días
    MacBook Neo base: rendimiento y limitaciones para estudiantes

    MacBook Neo base: rendimiento y limitaciones para estudiantes

    Autonomía, reparabilidad y limitaciones de la MacBook Neo base para estudiantes

    hace 2 días

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería

    Xiaomi prueba en China el Mijia Kids Electric Toothbrush Pro, cepillo infantil con pantalla a color, IA que adapta la rutina y autonomía de 90 días. Certificado IPX8 (sumergible a 1,5 m) y está conectado al ecosistema HyperOS vía HyperConnect, envía datos y alertas de presión a la app Mijia. Aún sin certificaciones CE/FCC ni precio oficial para México.

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería
    hace 2 días

    Apple presentó el MacBook Neo, una laptop de $11,400 MXN para educación

    Apple lanzó el MacBook Neo a $11,400 MXN, con chip A18 Pro, 8 GB de RAM y pantalla de 2,408 × 1,506 píxeles a 500 nits. Su batería de 11 h y ausencia de ventiladores ofrecen una alternativa macOS a Chromebooks y laptops Windows de bajo costo, forzando a la industria a replantear precios y especificaciones en el sector educativo mexicano.

    hace 3 días
    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Paso a paso para comparar precios y rendimiento y elegir la memoria ideal

    hace 4 días

    Apple lanzará iMac 2026 con chips M5 o M6

    Apple presentará a finales de 2026 el iMac 2026, conservando el chasis de 2021 y ampliando la paleta de colores. Los compradores podrán elegir entre los procesadores M5 o el futuro M6, lo que influirá en el rendimiento y la fecha de salida. La fabricación con impresión 3D de aluminio reducirá el peso y permitirá personalizaciones adicionales.

    Apple lanzará iMac 2026 con chips M5 o M6
    hace 4 días
    Qué es el LEGO Smart Brick y cómo funciona

    Qué es el LEGO Smart Brick y cómo funciona

    Explora su electrónica y la interacción con mini‑figuras, para importarlo

    hace 4 días

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio

    El ingeniero Paul Staall transformó una pieza del set Galaxy Explorer de 1979 en una carcasa 3D para el Mac mini M4, ampliándola diez veces e incorporando una pantalla táctil de 18 cm, ranura SD y un hub USB‑C. Con 6 a 30 horas de impresión y 0,7 a 1 kg de filamento PLA+, el proyecto inspira a makers mexicanos a crear estaciones de trabajo compactas.

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio
    hace 4 días

    Claude Marketplace llega a México, unifica la compra de IA

    Anthropic lanzó Claude Marketplace el 15 de febrero de 2026, ofreciendo a empresas un saldo único para IA corporativa. Con 8 % de compañías >10 empleados usando IA (INGI 2024) y una adopción del 72 % (IDC/Lenovo 2025), la demanda crece. El gasto se prevé en 32,884 millones para 2025. La plataforma puede reducir el tiempo de aprobación hasta un 30 % y aliviar la escasez de talento.

    Claude Marketplace llega a México, unifica la compra de IA
    hace 6 días

    iPhone 17e vs iPhone 17: ¿Cuál encaja mejor en tu rutina?

    Este artículo desglosa los cinco factores clave que diferencian al iPhone 17e del iPhone 17: costo y opciones de financiación, tamaño y frecuencia de pantalla, potencia del chipset y GPU, capacidades fotográficas y autonomía de batería. Con una tabla comparativa y ejemplos de uso cotidiano, podrás decidir cuál se alinea mejor con tu estilo de vida y tus prioridades financieras.

    hace 6 días
    Los algoritmos multimodales aceleran tus recomendaciones

    Los algoritmos multimodales aceleran tus recomendaciones

    Cómo un embedding de texto, imagen y audio brinda recomendaciones instantáneas

    hace 6 días

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos

    Microsoft patentó una IA para Xbox que detecta frustración, como muertes consecutivas o estancamiento, guarda el estado y ejecuta en la nube una sesión asistida en menos de 2 segundos. El jugador decide si acepta la ayuda, lo que podría mejorar la accesibilidad para usuarios con discapacidades motoras y disminuir la tasa de abandono por dificultad.

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos
    hace 6 días

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p

    El 5 de marzo de 2026 TCL lanzó el monitor OLED 32X3A, pantalla premium de 80 cm con 480 Hz a 1080p y 240 Hz a 4K. Su panel OLED+ de 10‑bit cubre el 99 % DCI‑P3 y sRGB, alcanza 1,300 nits y responde en 0,03 ms. Incluye FreeSync Premium, G‑Sync, AI crosshair y sensor de brillo automático, y conecta vía HDMI 2.1, DisplayPort 2.1 y USB‑C 90 W. Solo disponible en China.

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p
    hace 6 días
    Loading...
Ciencia/Mente

La IA falla donde los humanos brillan: por qué no entiende la interacción social

Más de 350 modelos probados no logran interpretar señales sociales básicas que tu cerebro procesa en milisegundos

7 noviembre 2025

Valeria Gómez

banner

Un estudio de Johns Hopkins revela que la inteligencia artificial actual no puede comprender interacciones sociales dinámicas que para los humanos son automáticas. Descubre por qué modelos avanzados fallan en tareas simples como detectar colaboración o intenciones, qué significa esto para vehículos autónomos y robots asistentes en México, y qué aspecto fundamental del cerebro humano aún no podemos replicar en las máquinas.

telegram-cloud-photo-size-2-5211058007943351500-y

Resumen:

  • Estudio de Johns Hopkins revela que la IA actual falla rotundamente en comprender interacciones sociales humanas
  • Modelos de IA no logran interpretar señales no verbales y dinámicas sociales complejas
  • Investigadores buscan nuevos enfoques para desarrollar IA con percepción social más avanzada

Imagina que estás en un mercado lleno de gente: alguien te pasa una bolsa, otra persona señala hacia un puesto, y tú entiendes al instante quién colabora con quién, quién espera su turno, quién está distraído. Tu cerebro procesa estas señales sociales en milisegundos, sin esfuerzo.

Ahora imagina que le pides a una inteligencia artificial que haga lo mismo. Según un estudio reciente de la Universidad Johns Hopkins, la IA actual falla rotundamente en esta tarea que para los humanos es casi automática.

Qué reveló el experimento de Johns Hopkins

Científicos de la Universidad Johns Hopkins diseñaron un experimento sencillo pero revelador para medir qué tan cerca está la IA de comprender la interacción social humana.

La respuesta fue contundente: ni siquiera cerca.

El estudio utilizó videos de apenas tres segundos. En ellos, personas realizaban tareas simples: pasarse objetos, trabajar juntas, actuar de forma independiente. Nada complejo, solo interacciones cotidianas.

El diseño del estudio

Los investigadores mostraron clips de video cortos a participantes humanos. Los participantes calificaron aspectos clave de la interacción social en una escala del 1 al 5: ¿quién colabora con quién? ¿Quién presta atención a quién? ¿Qué intenciones se perciben?

Luego vino la prueba de fuego para la IA. Los científicos utilizaron más de 350 modelos de inteligencia artificial —incluyendo grandes modelos de lenguaje (sistemas entrenados con millones de textos para procesar y generar lenguaje humano) y modelos generativos (IA que crea contenido nuevo basándose en patrones aprendidos)— para predecir cómo los humanos calificarían esos mismos videos.

El resultado: ningún modelo de IA logró interpretar correctamente el comportamiento social dinámico.

Cómo funciona la percepción social humana

Para entender por qué la IA falla, primero hay que comprender qué hace el cerebro humano cuando observa una interacción social.

Tu cerebro no solo ve movimientos: detecta patrones, anticipa intenciones, lee señales no verbales como la dirección de la mirada, la postura corporal, el ritmo de los gestos. Este proceso, conocido como visión social dinámica, es una habilidad que desarrollamos desde la infancia y que nos permite navegar el mundo social con fluidez.

Señales no verbales que la IA no capta

Los modelos de IA actuales pueden reconocer objetos, rostros, incluso emociones básicas en imágenes estáticas. Pero cuando se trata de interpretar la dinámica de una interacción en tiempo real, carecen de algo fundamental: la capacidad de integrar múltiples señales contextuales y temporales para construir una narrativa social coherente.

Es como si la IA pudiera leer las palabras de una conversación pero no captar el tono, las pausas, o el lenguaje corporal que le dan significado.

Por qué esto importa para la tecnología actual

Este hallazgo no es solo un dato curioso de laboratorio. Tiene implicaciones directas para tecnologías que ya están en desarrollo o en uso.

Vehículos autónomos y robots asistentes

Piensa en un vehículo autónomo que debe decidir si un peatón va a cruzar la calle. No basta con detectar su presencia: el sistema debe interpretar su lenguaje corporal, su mirada, su intención. Un error de interpretación puede ser fatal.

O considera un robot asistente en un hospital. Si no puede captar la frustración en el rostro de un paciente o la urgencia en el gesto de un médico, su utilidad se reduce drásticamente.

Para México, esto significa que tecnologías prometidas como taxis autónomos o asistentes robóticos en clínicas rurales aún enfrentan barreras fundamentales antes de ser confiables en entornos sociales reales.

Qué falta en los modelos de IA modernos

Los investigadores de Johns Hopkins concluyen que los modelos de IA actuales carecen de algún aspecto fundamental que permite al cerebro humano interpretar sin errores y rápidamente los aspectos de la interacción social dinámica.

¿Qué es ese «algo»? Aún no está claro. Podría ser la experiencia corporal —el hecho de que los humanos tenemos cuerpos y entendemos el movimiento desde dentro—. Podría ser la empatía evolutiva, desarrollada durante millones de años de vida en grupos sociales. O podría ser una combinación de factores que aún no hemos identificado.

Lo que sí está claro es que entrenar modelos con más datos o hacerlos más grandes no resuelve el problema por sí solo.

Qué sigue: el camino hacia una IA socialmente consciente

El estudio abre preguntas más que respuestas.

¿Cómo podemos enseñar a la IA a «ver» como vemos nosotros? ¿Es posible replicar la percepción social sin replicar la experiencia humana completa?

Algunos enfoques prometedores incluyen:

  • IA multimodal: sistemas que integran video, audio y texto para captar más contexto.
  • Aprendizaje por refuerzo social: entrenar modelos mediante interacciones simuladas con humanos.
  • Arquitecturas inspiradas en neurociencia: diseñar redes que imiten más de cerca cómo el cerebro procesa información social.

Pero por ahora, la brecha entre la percepción humana y la artificial en contextos sociales sigue siendo enorme.

¿Qué aspecto fundamental del cerebro humano falta replicar? ¿Es la experiencia corporal, la empatía evolutiva, o algo aún no identificado? Mientras los científicos buscan respuestas, una cosa queda clara: en el mercado de la interacción social, los humanos seguimos siendo insuperables.

Tema

AI Self-Awareness Research

IA alcanza nivel de lingüista en análisis gramatical

15 diciembre 2025

IA alcanza nivel de lingüista en análisis gramatical

La IA no es neutral. Nunca lo fue

1 diciembre 2025

La IA no es neutral. Nunca lo fue

Claude de Anthropic puede ver sus propios pensamientos

2 noviembre 2025

Claude de Anthropic puede ver sus propios pensamientos

Feed

    ¿Por qué antojas dulce al anochecer? La ciencia del impulso

    Entiende cómo glucosa y dopamina generan el antojo nocturno y dieta lo controla

    hace alrededor de 12 horas
    Instala y Configura PowerToys 0.97 en 20 Minutos

    Instala y Configura PowerToys 0.97 en 20 Minutos

    Guía paso a paso para organizar ventanas, buscar archivos y automatizar sin costo

    hace alrededor de 16 horas

    TikTok y Apple Music activan «Play Full Song»

    El 11 de marzo de 2026 TikTok y Apple Music presentaron la integración «Play Full Song», que permite reproducir la canción completa dentro de la app sin cambiar de plataforma. El mini‑reproductor, basado en Apple MusicKit, registra cada reproducción como stream oficial. La función llegará a México en las próximas semanas tras actualizar la app y tener suscripción activa.

    TikTok y Apple Music activan «Play Full Song»
    hace alrededor de 19 horas

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM

    Microsoft introducirá Xbox Full Screen Experience en Windows 11 24H2 y 25H2 a partir de abril 2026. Al cerrar el Explorador, el modo libera ≈2 GB de RAM, mejorando la fluidez de juegos exigentes. Se activa en Configuración > Juegos o con Win + F11 y está disponible en equipos ASUS ROG Xbox Ally, MSI Claw (A1M, 7 AI+, 8 AI+, A8) y Lenovo Legion Go con la versión requerida.

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM
    hace alrededor de 19 horas

    Klotho Neurosciences lanza pruebas para medir edad biológica

    El 24 de febrero de 2026, Klotho Neurosciences lanzó dos pruebas genómicas que analizan la metilación del ADN del gen alfa‑Klotho y combinan datos de nueve genes de longevidad mediante IA, con sangre periférica. La medida de edad biológica permitirá asignar participantes en ensayos de ELA y Alzheimer, reduciendo la variabilidad y acelerando decisiones regulatorias.

    Klotho Neurosciences lanza pruebas para medir edad biológica
    hace 1 día

    MAZ suspende el Moscovich 5 por consumo excesivo

    El 5 de marzo de 2026, MAZ anunció la suspensión de la producción del SUV Moscovich 5 en Moscú tras registrar consumos de 9,5‑11,2 l/100 km, por encima del estándar del segmento. La empresa liquidará los vehículos en ensamblaje, reciclará piezas y ofrecerá descuentos del 15‑20 %. Mientras tanto, el Moscovich 3, con motor 1,6 L y consumo de 8,1 l/100 km, sigue en desarrollo.

    MAZ suspende el Moscovich 5 por consumo excesivo
    hace 1 día

    Meta compra Moltbook y apunta a IA empresarial en México

    Meta anunció el 5 de marzo de 2026 la compra de Moltbook, la plataforma mexicana donde los agentes de IA conversan de forma autónoma. Con la integración al Meta Superintelligence Labs, la empresa ofrecerá a compañías mexicanas herramientas para automatizar correos, clasificar documentos y generar reportes sin programar, reduciendo horas manuales y agilizando decisiones estratégicas.

    Meta compra Moltbook y apunta a IA empresarial en México
    hace 1 día

    Adobe lanza asistente IA en Photoshop versión beta

    Adobe lanzó la beta del asistente IA de Photoshop, accesible en la web y en apps móviles. Con texto se pueden eliminar objetos, cambiar fondos o ajustar iluminación sin usar paneles. Los suscriptores tienen uso ilimitado hasta el 9 de abril de 2026; los gratuitos disponen de 20 generaciones. La herramienta baja la barrera técnica, para el 37 % de profesionales que usan IA en México.

    Adobe lanza asistente IA en Photoshop versión beta
    hace 2 días
    MacBook Neo base: rendimiento y limitaciones para estudiantes

    MacBook Neo base: rendimiento y limitaciones para estudiantes

    Autonomía, reparabilidad y limitaciones de la MacBook Neo base para estudiantes

    hace 2 días

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería

    Xiaomi prueba en China el Mijia Kids Electric Toothbrush Pro, cepillo infantil con pantalla a color, IA que adapta la rutina y autonomía de 90 días. Certificado IPX8 (sumergible a 1,5 m) y está conectado al ecosistema HyperOS vía HyperConnect, envía datos y alertas de presión a la app Mijia. Aún sin certificaciones CE/FCC ni precio oficial para México.

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería
    hace 2 días

    Apple presentó el MacBook Neo, una laptop de $11,400 MXN para educación

    Apple lanzó el MacBook Neo a $11,400 MXN, con chip A18 Pro, 8 GB de RAM y pantalla de 2,408 × 1,506 píxeles a 500 nits. Su batería de 11 h y ausencia de ventiladores ofrecen una alternativa macOS a Chromebooks y laptops Windows de bajo costo, forzando a la industria a replantear precios y especificaciones en el sector educativo mexicano.

    hace 3 días
    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Paso a paso para comparar precios y rendimiento y elegir la memoria ideal

    hace 4 días

    Apple lanzará iMac 2026 con chips M5 o M6

    Apple presentará a finales de 2026 el iMac 2026, conservando el chasis de 2021 y ampliando la paleta de colores. Los compradores podrán elegir entre los procesadores M5 o el futuro M6, lo que influirá en el rendimiento y la fecha de salida. La fabricación con impresión 3D de aluminio reducirá el peso y permitirá personalizaciones adicionales.

    Apple lanzará iMac 2026 con chips M5 o M6
    hace 4 días
    Qué es el LEGO Smart Brick y cómo funciona

    Qué es el LEGO Smart Brick y cómo funciona

    Explora su electrónica y la interacción con mini‑figuras, para importarlo

    hace 4 días

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio

    El ingeniero Paul Staall transformó una pieza del set Galaxy Explorer de 1979 en una carcasa 3D para el Mac mini M4, ampliándola diez veces e incorporando una pantalla táctil de 18 cm, ranura SD y un hub USB‑C. Con 6 a 30 horas de impresión y 0,7 a 1 kg de filamento PLA+, el proyecto inspira a makers mexicanos a crear estaciones de trabajo compactas.

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio
    hace 4 días

    Claude Marketplace llega a México, unifica la compra de IA

    Anthropic lanzó Claude Marketplace el 15 de febrero de 2026, ofreciendo a empresas un saldo único para IA corporativa. Con 8 % de compañías >10 empleados usando IA (INGI 2024) y una adopción del 72 % (IDC/Lenovo 2025), la demanda crece. El gasto se prevé en 32,884 millones para 2025. La plataforma puede reducir el tiempo de aprobación hasta un 30 % y aliviar la escasez de talento.

    Claude Marketplace llega a México, unifica la compra de IA
    hace 6 días

    iPhone 17e vs iPhone 17: ¿Cuál encaja mejor en tu rutina?

    Este artículo desglosa los cinco factores clave que diferencian al iPhone 17e del iPhone 17: costo y opciones de financiación, tamaño y frecuencia de pantalla, potencia del chipset y GPU, capacidades fotográficas y autonomía de batería. Con una tabla comparativa y ejemplos de uso cotidiano, podrás decidir cuál se alinea mejor con tu estilo de vida y tus prioridades financieras.

    hace 6 días
    Los algoritmos multimodales aceleran tus recomendaciones

    Los algoritmos multimodales aceleran tus recomendaciones

    Cómo un embedding de texto, imagen y audio brinda recomendaciones instantáneas

    hace 6 días

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos

    Microsoft patentó una IA para Xbox que detecta frustración, como muertes consecutivas o estancamiento, guarda el estado y ejecuta en la nube una sesión asistida en menos de 2 segundos. El jugador decide si acepta la ayuda, lo que podría mejorar la accesibilidad para usuarios con discapacidades motoras y disminuir la tasa de abandono por dificultad.

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos
    hace 6 días

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p

    El 5 de marzo de 2026 TCL lanzó el monitor OLED 32X3A, pantalla premium de 80 cm con 480 Hz a 1080p y 240 Hz a 4K. Su panel OLED+ de 10‑bit cubre el 99 % DCI‑P3 y sRGB, alcanza 1,300 nits y responde en 0,03 ms. Incluye FreeSync Premium, G‑Sync, AI crosshair y sensor de brillo automático, y conecta vía HDMI 2.1, DisplayPort 2.1 y USB‑C 90 W. Solo disponible en China.

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p
    hace 6 días
    Loading...