• Mi Feed
  • Inicio
  • Lo Importante
  • Medios y Entretenimiento
Buscar

Stay Curious. Stay Wanture.

© 2026 Wanture. Todos los derechos reservados.

  • Términos de uso
  • Política de privacidad
banner
Tecnología/Software

Los algoritmos multimodales aceleran tus recomendaciones

Cómo un embedding de texto, imagen y audio brinda recomendaciones instantáneas

marzo 6, 2026, 5:06 pm

Los algoritmos multimodales extraen texto, imagen y audio de cada video, los convierten en un único vector llamado embedding y lo comparan con miles de contenidos en tiempo real. Así se reducen los tiempos de recomendación, se mejora la búsqueda por estilo o emoción y se detecta contenido nocivo sin esperar a la retroalimentación de los usuarios.

D8qBf6hxn7EW-1

Resumen

  • El algoritmo crea un vector multimodal que une texto, imagen y audio en menos de un segundo, reemplazando sistemas lentos y unidimensionales.
  • Los creadores obtienen difusión al instante y usuarios hallan videos con una foto o audio; el modelo detecta contenido nocivo antes de que se viralice.
  • Entrenar estos modelos requiere GPUs caras y mucha energía, lo que encarece su adopción para plataformas locales, pese a 62 millones de usuarios mexicanos.

En 2020, subir un video significaba esperar horas para aparecer en recomendaciones. En 2024, el algoritmo lo analiza en segundos. Lo que cambió no es solo la velocidad. Es cómo las máquinas ven el contenido.

Los sistemas de recomendación ahora interpretan texto, imagen y audio de forma conjunta. Extraen el tema, el estilo visual y el tono emocional, y los fusionan en una representación única que permite sugerir contenido relevante sin esperar la retroalimentación de los usuarios. Este cambio entrega ventajas inmediatas: distribución más rápida para creadores, búsquedas más precisas para espectadores y detección temprana de contenido problemático.

Lo que ve el algoritmo cuando subes un video

El sistema procesa cada modalidad por separado y luego las fusiona. Cada modalidad se convierte en un vector numérico llamado embedding multimodal. El embedding captura tema, estilo visual y tono emocional en un solo vector compacto.

Piensa en ello como traducir español, inglés y lenguaje de señas a un idioma universal que la máquina entiende. Con esa unidad, el motor compara contenidos sin depender de etiquetas superficiales ni de palabras clave.

En pruebas realizadas por VK, el proceso tarda menos de un segundo por video de tres minutos. Los sistemas unimodales requerían varios segundos y dependían de la retroalimentación inicial de los usuarios.

Cuando una foto, un sonido y una palabra se vuelven lo mismo

Los modelos convierten formatos distintos en el mismo espacio vectorial. Una foto de montaña, una pista de viento y la frase «alpinismo» terminan cerca una de otra en ese espacio abstracto.

El entrenamiento usa contrastive learning: los ingenieros alimentan al modelo con pares de contenido relacionados y no relacionados. El algoritmo aprende a acercar en el espacio vectorial los pares que describen el mismo objeto y a alejar los que no tienen conexión.

Con millones de ejemplos, la red reconoce patrones complejos. Un usuario sube una foto desde el Zócalo, y el sistema encuentra videos de eventos culturales en plazas públicas sin que nadie haya etiquetado la imagen.

Recomendaciones sin esperar las primeras vistas

Al subir un video, el sistema ya dispone de una descripción compacta del contenido. Esto acelera la distribución porque no se espera a que los primeros espectadores lo califiquen. Según el informe de IDC, la latencia de recomendación se redujo un 30 % en plataformas que adoptan modelos multimodales.

Para creadores mexicanos en TikTok o YouTube, esto significa alcance inmediato. Un video de receta de mole negro aparece en los feeds de usuarios interesados en gastronomía oaxaqueña segundos después de subirlo, no horas más tarde.

Buscar con imágenes o sonidos, no solo palabras

Los usuarios suben una fotografía y obtienen videos con estética similar en menos de dos segundos. De igual forma, una muestra de audio de una canción permite encontrar clips que comparten la misma atmósfera sonora. Esta búsqueda basada en asociaciones sustituye las palabras clave tradicionales y mejora la precisión de resultados.

Un ejemplo local: grabas unos segundos de la Guelaguetza y el sistema te muestra documentales sobre danzas tradicionales, tutoriales de vestuario y entrevistas con artesanos. Sin escribir una sola etiqueta.

Detectar contenido problemático antes de que circule

El modelo cruza señales para identificar inconsistencias entre imagen y audio. Un video con imágenes inocentes pero lenguaje ofensivo en la pista de audio se marca automáticamente. En pruebas de VK, la tasa de detección de contenido nocivo aumentó un 18 % frente a sistemas que analizan cada modalidad por separado.

Esta capacidad reduce el tiempo de exposición a contenido dañino. Las plataformas actúan antes de que el video acumule vistas, protegiendo a los usuarios y simplificando la moderación.

Una preferencia en artículos influye en sugerencias de video

El embedding unificado permite que tus elecciones en un formato afecten otro. Si diste «me gusta» a un artículo de viajes, el algoritmo infiere interés por paisajes y muestra videos de destinos turísticos sin requerir entrenamiento adicional. Para creadores, la campaña puede diseñarse una vez y desplegarse en varios formatos simultáneamente.

Esto simplifica la estrategia de contenido. Un fotógrafo mexicano publica una serie sobre cenotes y el sistema recomienda sus videos, galerías y entrevistas escritas a la misma audiencia, sin segmentar manualmente.

Explicar por qué el algoritmo sugiere un video

Los sistemas empiezan a justificar sus decisiones con referencias claras. En lugar de «Puede que te guste», el mensaje indica «Recomendamos este video porque calificaste una escena de montaña en un clip anterior». Esto entrega transparencia y permite a los usuarios ajustar sus preferencias con mayor precisión.

Además, los modelos generan collages a partir de fotogramas favoritos o crean listas de reproducción según la hora del día y el clima. Un usuario en Monterrey recibe recomendaciones matutinas diferentes a las nocturnas, adaptadas a sus patrones de consumo.

Los desafíos que aún frenan la adopción

El entrenamiento de modelos multimodales exige grandes recursos computacionales. Los centros de datos deben disponer de GPUs de alta gama y consumir energía significativa, lo que eleva los costos operativos. Los investigadores señalan que equilibrar precisión y eficiencia sigue siendo un desafío abierto.

Para plataformas locales con presupuestos limitados, implementar estos sistemas representa una barrera técnica y financiera. La infraestructura de nube ayuda, pero los costos recurrentes pueden ser prohibitivos.

Qué significa esto para creadores y usuarios mexicanos

Con 62.2 millones de usuarios mexicanos accediendo a contenido audiovisual, la adopción de IA multimodal transforma la experiencia digital. Según la encuesta de NTT Data, el 77.7 % de las organizaciones latinoamericanas ya emplean IA generativa, lo que indica un ecosistema preparado para integrar estas tecnologías.

Los creadores ganan alcance sin esperar. Los usuarios encuentran contenido relevante sin escribir consultas complejas. Las plataformas moderan de forma más efectiva. La tecnología se vuelve invisible: funciona en segundo plano mientras tú subes, buscas y descubres.

Si produces contenido, considera que los algoritmos ahora ven más allá de las etiquetas. Cuida la coherencia entre lo que muestras, lo que dices y lo que escribes. Si consumes, aprovecha las nuevas formas de búsqueda. Sube una imagen, graba un fragmento de audio, deja que el sistema trabaje. La máquina ya aprendió a hablar tu idioma.

¿De qué trata esto?

  • algorithmic recommendations/
  • AI-generated content/
  • ética tecnológica/
  • colaboración humano-máquina/
  • optimización algorítmica

Feed

    ¿Por qué antojas dulce al anochecer? La ciencia del impulso

    Entiende cómo glucosa y dopamina generan el antojo nocturno y dieta lo controla

    hace alrededor de 8 horas
    Instala y Configura PowerToys 0.97 en 20 Minutos

    Instala y Configura PowerToys 0.97 en 20 Minutos

    Guía paso a paso para organizar ventanas, buscar archivos y automatizar sin costo

    hace alrededor de 11 horas

    TikTok y Apple Music activan «Play Full Song»

    El 11 de marzo de 2026 TikTok y Apple Music presentaron la integración «Play Full Song», que permite reproducir la canción completa dentro de la app sin cambiar de plataforma. El mini‑reproductor, basado en Apple MusicKit, registra cada reproducción como stream oficial. La función llegará a México en las próximas semanas tras actualizar la app y tener suscripción activa.

    TikTok y Apple Music activan «Play Full Song»
    hace alrededor de 14 horas

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM

    Microsoft introducirá Xbox Full Screen Experience en Windows 11 24H2 y 25H2 a partir de abril 2026. Al cerrar el Explorador, el modo libera ≈2 GB de RAM, mejorando la fluidez de juegos exigentes. Se activa en Configuración > Juegos o con Win + F11 y está disponible en equipos ASUS ROG Xbox Ally, MSI Claw (A1M, 7 AI+, 8 AI+, A8) y Lenovo Legion Go con la versión requerida.

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM
    hace alrededor de 15 horas

    Klotho Neurosciences lanza pruebas para medir edad biológica

    El 24 de febrero de 2026, Klotho Neurosciences lanzó dos pruebas genómicas que analizan la metilación del ADN del gen alfa‑Klotho y combinan datos de nueve genes de longevidad mediante IA, con sangre periférica. La medida de edad biológica permitirá asignar participantes en ensayos de ELA y Alzheimer, reduciendo la variabilidad y acelerando decisiones regulatorias.

    Klotho Neurosciences lanza pruebas para medir edad biológica
    hace 1 día

    MAZ suspende el Moscovich 5 por consumo excesivo

    El 5 de marzo de 2026, MAZ anunció la suspensión de la producción del SUV Moscovich 5 en Moscú tras registrar consumos de 9,5‑11,2 l/100 km, por encima del estándar del segmento. La empresa liquidará los vehículos en ensamblaje, reciclará piezas y ofrecerá descuentos del 15‑20 %. Mientras tanto, el Moscovich 3, con motor 1,6 L y consumo de 8,1 l/100 km, sigue en desarrollo.

    MAZ suspende el Moscovich 5 por consumo excesivo
    hace 1 día

    Meta compra Moltbook y apunta a IA empresarial en México

    Meta anunció el 5 de marzo de 2026 la compra de Moltbook, la plataforma mexicana donde los agentes de IA conversan de forma autónoma. Con la integración al Meta Superintelligence Labs, la empresa ofrecerá a compañías mexicanas herramientas para automatizar correos, clasificar documentos y generar reportes sin programar, reduciendo horas manuales y agilizando decisiones estratégicas.

    Meta compra Moltbook y apunta a IA empresarial en México
    hace 1 día

    Adobe lanza asistente IA en Photoshop versión beta

    Adobe lanzó la beta del asistente IA de Photoshop, accesible en la web y en apps móviles. Con texto se pueden eliminar objetos, cambiar fondos o ajustar iluminación sin usar paneles. Los suscriptores tienen uso ilimitado hasta el 9 de abril de 2026; los gratuitos disponen de 20 generaciones. La herramienta baja la barrera técnica, para el 37 % de profesionales que usan IA en México.

    Adobe lanza asistente IA en Photoshop versión beta
    hace 1 día
    MacBook Neo base: rendimiento y limitaciones para estudiantes

    MacBook Neo base: rendimiento y limitaciones para estudiantes

    Autonomía, reparabilidad y limitaciones de la MacBook Neo base para estudiantes

    hace 2 días

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería

    Xiaomi prueba en China el Mijia Kids Electric Toothbrush Pro, cepillo infantil con pantalla a color, IA que adapta la rutina y autonomía de 90 días. Certificado IPX8 (sumergible a 1,5 m) y está conectado al ecosistema HyperOS vía HyperConnect, envía datos y alertas de presión a la app Mijia. Aún sin certificaciones CE/FCC ni precio oficial para México.

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería
    hace 2 días

    Apple presentó el MacBook Neo, una laptop de $11,400 MXN para educación

    Apple lanzó el MacBook Neo a $11,400 MXN, con chip A18 Pro, 8 GB de RAM y pantalla de 2,408 × 1,506 píxeles a 500 nits. Su batería de 11 h y ausencia de ventiladores ofrecen una alternativa macOS a Chromebooks y laptops Windows de bajo costo, forzando a la industria a replantear precios y especificaciones en el sector educativo mexicano.

    hace 3 días
    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Paso a paso para comparar precios y rendimiento y elegir la memoria ideal

    hace 3 días

    Apple lanzará iMac 2026 con chips M5 o M6

    Apple presentará a finales de 2026 el iMac 2026, conservando el chasis de 2021 y ampliando la paleta de colores. Los compradores podrán elegir entre los procesadores M5 o el futuro M6, lo que influirá en el rendimiento y la fecha de salida. La fabricación con impresión 3D de aluminio reducirá el peso y permitirá personalizaciones adicionales.

    Apple lanzará iMac 2026 con chips M5 o M6
    hace 3 días
    Qué es el LEGO Smart Brick y cómo funciona

    Qué es el LEGO Smart Brick y cómo funciona

    Explora su electrónica y la interacción con mini‑figuras, para importarlo

    hace 3 días

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio

    El ingeniero Paul Staall transformó una pieza del set Galaxy Explorer de 1979 en una carcasa 3D para el Mac mini M4, ampliándola diez veces e incorporando una pantalla táctil de 18 cm, ranura SD y un hub USB‑C. Con 6 a 30 horas de impresión y 0,7 a 1 kg de filamento PLA+, el proyecto inspira a makers mexicanos a crear estaciones de trabajo compactas.

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio
    hace 3 días

    Claude Marketplace llega a México, unifica la compra de IA

    Anthropic lanzó Claude Marketplace el 15 de febrero de 2026, ofreciendo a empresas un saldo único para IA corporativa. Con 8 % de compañías >10 empleados usando IA (INGI 2024) y una adopción del 72 % (IDC/Lenovo 2025), la demanda crece. El gasto se prevé en 32,884 millones para 2025. La plataforma puede reducir el tiempo de aprobación hasta un 30 % y aliviar la escasez de talento.

    Claude Marketplace llega a México, unifica la compra de IA
    hace 6 días

    iPhone 17e vs iPhone 17: ¿Cuál encaja mejor en tu rutina?

    Este artículo desglosa los cinco factores clave que diferencian al iPhone 17e del iPhone 17: costo y opciones de financiación, tamaño y frecuencia de pantalla, potencia del chipset y GPU, capacidades fotográficas y autonomía de batería. Con una tabla comparativa y ejemplos de uso cotidiano, podrás decidir cuál se alinea mejor con tu estilo de vida y tus prioridades financieras.

    hace 6 días

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos

    Microsoft patentó una IA para Xbox que detecta frustración, como muertes consecutivas o estancamiento, guarda el estado y ejecuta en la nube una sesión asistida en menos de 2 segundos. El jugador decide si acepta la ayuda, lo que podría mejorar la accesibilidad para usuarios con discapacidades motoras y disminuir la tasa de abandono por dificultad.

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos
    hace 6 días

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p

    El 5 de marzo de 2026 TCL lanzó el monitor OLED 32X3A, pantalla premium de 80 cm con 480 Hz a 1080p y 240 Hz a 4K. Su panel OLED+ de 10‑bit cubre el 99 % DCI‑P3 y sRGB, alcanza 1,300 nits y responde en 0,03 ms. Incluye FreeSync Premium, G‑Sync, AI crosshair y sensor de brillo automático, y conecta vía HDMI 2.1, DisplayPort 2.1 y USB‑C 90 W. Solo disponible en China.

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p
    hace 6 días
    Loading...
Tecnología/Software

Los algoritmos multimodales aceleran tus recomendaciones

Cómo un embedding de texto, imagen y audio brinda recomendaciones instantáneas

6 marzo 2026

Javier Morales

banner

Los algoritmos multimodales extraen texto, imagen y audio de cada video, los convierten en un único vector llamado embedding y lo comparan con miles de contenidos en tiempo real. Así se reducen los tiempos de recomendación, se mejora la búsqueda por estilo o emoción y se detecta contenido nocivo sin esperar a la retroalimentación de los usuarios.

D8qBf6hxn7EW-1

Resumen:

  • El algoritmo crea un vector multimodal que une texto, imagen y audio en menos de un segundo, reemplazando sistemas lentos y unidimensionales.
  • Los creadores obtienen difusión al instante y usuarios hallan videos con una foto o audio; el modelo detecta contenido nocivo antes de que se viralice.
  • Entrenar estos modelos requiere GPUs caras y mucha energía, lo que encarece su adopción para plataformas locales, pese a 62 millones de usuarios mexicanos.

En 2020, subir un video significaba esperar horas para aparecer en recomendaciones. En 2024, el algoritmo lo analiza en segundos. Lo que cambió no es solo la velocidad. Es cómo las máquinas ven el contenido.

Los sistemas de recomendación ahora interpretan texto, imagen y audio de forma conjunta. Extraen el tema, el estilo visual y el tono emocional, y los fusionan en una representación única que permite sugerir contenido relevante sin esperar la retroalimentación de los usuarios. Este cambio entrega ventajas inmediatas: distribución más rápida para creadores, búsquedas más precisas para espectadores y detección temprana de contenido problemático.

Lo que ve el algoritmo cuando subes un video

El sistema procesa cada modalidad por separado y luego las fusiona. Cada modalidad se convierte en un vector numérico llamado embedding multimodal. El embedding captura tema, estilo visual y tono emocional en un solo vector compacto.

Piensa en ello como traducir español, inglés y lenguaje de señas a un idioma universal que la máquina entiende. Con esa unidad, el motor compara contenidos sin depender de etiquetas superficiales ni de palabras clave.

En pruebas realizadas por VK, el proceso tarda menos de un segundo por video de tres minutos. Los sistemas unimodales requerían varios segundos y dependían de la retroalimentación inicial de los usuarios.

Cuando una foto, un sonido y una palabra se vuelven lo mismo

Los modelos convierten formatos distintos en el mismo espacio vectorial. Una foto de montaña, una pista de viento y la frase «alpinismo» terminan cerca una de otra en ese espacio abstracto.

El entrenamiento usa contrastive learning: los ingenieros alimentan al modelo con pares de contenido relacionados y no relacionados. El algoritmo aprende a acercar en el espacio vectorial los pares que describen el mismo objeto y a alejar los que no tienen conexión.

Con millones de ejemplos, la red reconoce patrones complejos. Un usuario sube una foto desde el Zócalo, y el sistema encuentra videos de eventos culturales en plazas públicas sin que nadie haya etiquetado la imagen.

Recomendaciones sin esperar las primeras vistas

Al subir un video, el sistema ya dispone de una descripción compacta del contenido. Esto acelera la distribución porque no se espera a que los primeros espectadores lo califiquen. Según el informe de IDC, la latencia de recomendación se redujo un 30 % en plataformas que adoptan modelos multimodales.

Para creadores mexicanos en TikTok o YouTube, esto significa alcance inmediato. Un video de receta de mole negro aparece en los feeds de usuarios interesados en gastronomía oaxaqueña segundos después de subirlo, no horas más tarde.

Buscar con imágenes o sonidos, no solo palabras

Los usuarios suben una fotografía y obtienen videos con estética similar en menos de dos segundos. De igual forma, una muestra de audio de una canción permite encontrar clips que comparten la misma atmósfera sonora. Esta búsqueda basada en asociaciones sustituye las palabras clave tradicionales y mejora la precisión de resultados.

Un ejemplo local: grabas unos segundos de la Guelaguetza y el sistema te muestra documentales sobre danzas tradicionales, tutoriales de vestuario y entrevistas con artesanos. Sin escribir una sola etiqueta.

Detectar contenido problemático antes de que circule

El modelo cruza señales para identificar inconsistencias entre imagen y audio. Un video con imágenes inocentes pero lenguaje ofensivo en la pista de audio se marca automáticamente. En pruebas de VK, la tasa de detección de contenido nocivo aumentó un 18 % frente a sistemas que analizan cada modalidad por separado.

Esta capacidad reduce el tiempo de exposición a contenido dañino. Las plataformas actúan antes de que el video acumule vistas, protegiendo a los usuarios y simplificando la moderación.

Una preferencia en artículos influye en sugerencias de video

El embedding unificado permite que tus elecciones en un formato afecten otro. Si diste «me gusta» a un artículo de viajes, el algoritmo infiere interés por paisajes y muestra videos de destinos turísticos sin requerir entrenamiento adicional. Para creadores, la campaña puede diseñarse una vez y desplegarse en varios formatos simultáneamente.

Esto simplifica la estrategia de contenido. Un fotógrafo mexicano publica una serie sobre cenotes y el sistema recomienda sus videos, galerías y entrevistas escritas a la misma audiencia, sin segmentar manualmente.

Explicar por qué el algoritmo sugiere un video

Los sistemas empiezan a justificar sus decisiones con referencias claras. En lugar de «Puede que te guste», el mensaje indica «Recomendamos este video porque calificaste una escena de montaña en un clip anterior». Esto entrega transparencia y permite a los usuarios ajustar sus preferencias con mayor precisión.

Además, los modelos generan collages a partir de fotogramas favoritos o crean listas de reproducción según la hora del día y el clima. Un usuario en Monterrey recibe recomendaciones matutinas diferentes a las nocturnas, adaptadas a sus patrones de consumo.

Los desafíos que aún frenan la adopción

El entrenamiento de modelos multimodales exige grandes recursos computacionales. Los centros de datos deben disponer de GPUs de alta gama y consumir energía significativa, lo que eleva los costos operativos. Los investigadores señalan que equilibrar precisión y eficiencia sigue siendo un desafío abierto.

Para plataformas locales con presupuestos limitados, implementar estos sistemas representa una barrera técnica y financiera. La infraestructura de nube ayuda, pero los costos recurrentes pueden ser prohibitivos.

Qué significa esto para creadores y usuarios mexicanos

Con 62.2 millones de usuarios mexicanos accediendo a contenido audiovisual, la adopción de IA multimodal transforma la experiencia digital. Según la encuesta de NTT Data, el 77.7 % de las organizaciones latinoamericanas ya emplean IA generativa, lo que indica un ecosistema preparado para integrar estas tecnologías.

Los creadores ganan alcance sin esperar. Los usuarios encuentran contenido relevante sin escribir consultas complejas. Las plataformas moderan de forma más efectiva. La tecnología se vuelve invisible: funciona en segundo plano mientras tú subes, buscas y descubres.

Si produces contenido, considera que los algoritmos ahora ven más allá de las etiquetas. Cuida la coherencia entre lo que muestras, lo que dices y lo que escribes. Si consumes, aprovecha las nuevas formas de búsqueda. Sube una imagen, graba un fragmento de audio, deja que el sistema trabaje. La máquina ya aprendió a hablar tu idioma.

¿De qué trata esto?

  • algorithmic recommendations/
  • AI-generated content/
  • ética tecnológica/
  • colaboración humano-máquina/
  • optimización algorítmica

Feed

    ¿Por qué antojas dulce al anochecer? La ciencia del impulso

    Entiende cómo glucosa y dopamina generan el antojo nocturno y dieta lo controla

    hace alrededor de 8 horas
    Instala y Configura PowerToys 0.97 en 20 Minutos

    Instala y Configura PowerToys 0.97 en 20 Minutos

    Guía paso a paso para organizar ventanas, buscar archivos y automatizar sin costo

    hace alrededor de 11 horas

    TikTok y Apple Music activan «Play Full Song»

    El 11 de marzo de 2026 TikTok y Apple Music presentaron la integración «Play Full Song», que permite reproducir la canción completa dentro de la app sin cambiar de plataforma. El mini‑reproductor, basado en Apple MusicKit, registra cada reproducción como stream oficial. La función llegará a México en las próximas semanas tras actualizar la app y tener suscripción activa.

    TikTok y Apple Music activan «Play Full Song»
    hace alrededor de 14 horas

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM

    Microsoft introducirá Xbox Full Screen Experience en Windows 11 24H2 y 25H2 a partir de abril 2026. Al cerrar el Explorador, el modo libera ≈2 GB de RAM, mejorando la fluidez de juegos exigentes. Se activa en Configuración > Juegos o con Win + F11 y está disponible en equipos ASUS ROG Xbox Ally, MSI Claw (A1M, 7 AI+, 8 AI+, A8) y Lenovo Legion Go con la versión requerida.

    Xbox Full Screen en Windows 11 24H2 libera 2 GB de RAM
    hace alrededor de 15 horas

    Klotho Neurosciences lanza pruebas para medir edad biológica

    El 24 de febrero de 2026, Klotho Neurosciences lanzó dos pruebas genómicas que analizan la metilación del ADN del gen alfa‑Klotho y combinan datos de nueve genes de longevidad mediante IA, con sangre periférica. La medida de edad biológica permitirá asignar participantes en ensayos de ELA y Alzheimer, reduciendo la variabilidad y acelerando decisiones regulatorias.

    Klotho Neurosciences lanza pruebas para medir edad biológica
    hace 1 día

    MAZ suspende el Moscovich 5 por consumo excesivo

    El 5 de marzo de 2026, MAZ anunció la suspensión de la producción del SUV Moscovich 5 en Moscú tras registrar consumos de 9,5‑11,2 l/100 km, por encima del estándar del segmento. La empresa liquidará los vehículos en ensamblaje, reciclará piezas y ofrecerá descuentos del 15‑20 %. Mientras tanto, el Moscovich 3, con motor 1,6 L y consumo de 8,1 l/100 km, sigue en desarrollo.

    MAZ suspende el Moscovich 5 por consumo excesivo
    hace 1 día

    Meta compra Moltbook y apunta a IA empresarial en México

    Meta anunció el 5 de marzo de 2026 la compra de Moltbook, la plataforma mexicana donde los agentes de IA conversan de forma autónoma. Con la integración al Meta Superintelligence Labs, la empresa ofrecerá a compañías mexicanas herramientas para automatizar correos, clasificar documentos y generar reportes sin programar, reduciendo horas manuales y agilizando decisiones estratégicas.

    Meta compra Moltbook y apunta a IA empresarial en México
    hace 1 día

    Adobe lanza asistente IA en Photoshop versión beta

    Adobe lanzó la beta del asistente IA de Photoshop, accesible en la web y en apps móviles. Con texto se pueden eliminar objetos, cambiar fondos o ajustar iluminación sin usar paneles. Los suscriptores tienen uso ilimitado hasta el 9 de abril de 2026; los gratuitos disponen de 20 generaciones. La herramienta baja la barrera técnica, para el 37 % de profesionales que usan IA en México.

    Adobe lanza asistente IA en Photoshop versión beta
    hace 1 día
    MacBook Neo base: rendimiento y limitaciones para estudiantes

    MacBook Neo base: rendimiento y limitaciones para estudiantes

    Autonomía, reparabilidad y limitaciones de la MacBook Neo base para estudiantes

    hace 2 días

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería

    Xiaomi prueba en China el Mijia Kids Electric Toothbrush Pro, cepillo infantil con pantalla a color, IA que adapta la rutina y autonomía de 90 días. Certificado IPX8 (sumergible a 1,5 m) y está conectado al ecosistema HyperOS vía HyperConnect, envía datos y alertas de presión a la app Mijia. Aún sin certificaciones CE/FCC ni precio oficial para México.

    Xiaomi lanza Mijia Kids Toothbrush Pro con 90 días de batería
    hace 2 días

    Apple presentó el MacBook Neo, una laptop de $11,400 MXN para educación

    Apple lanzó el MacBook Neo a $11,400 MXN, con chip A18 Pro, 8 GB de RAM y pantalla de 2,408 × 1,506 píxeles a 500 nits. Su batería de 11 h y ausencia de ventiladores ofrecen una alternativa macOS a Chromebooks y laptops Windows de bajo costo, forzando a la industria a replantear precios y especificaciones en el sector educativo mexicano.

    hace 3 días
    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Elige DDR4 o DDR5 para tu PC gaming en México en 2026

    Paso a paso para comparar precios y rendimiento y elegir la memoria ideal

    hace 3 días

    Apple lanzará iMac 2026 con chips M5 o M6

    Apple presentará a finales de 2026 el iMac 2026, conservando el chasis de 2021 y ampliando la paleta de colores. Los compradores podrán elegir entre los procesadores M5 o el futuro M6, lo que influirá en el rendimiento y la fecha de salida. La fabricación con impresión 3D de aluminio reducirá el peso y permitirá personalizaciones adicionales.

    Apple lanzará iMac 2026 con chips M5 o M6
    hace 3 días
    Qué es el LEGO Smart Brick y cómo funciona

    Qué es el LEGO Smart Brick y cómo funciona

    Explora su electrónica y la interacción con mini‑figuras, para importarlo

    hace 3 días

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio

    El ingeniero Paul Staall transformó una pieza del set Galaxy Explorer de 1979 en una carcasa 3D para el Mac mini M4, ampliándola diez veces e incorporando una pantalla táctil de 18 cm, ranura SD y un hub USB‑C. Con 6 a 30 horas de impresión y 0,7 a 1 kg de filamento PLA+, el proyecto inspira a makers mexicanos a crear estaciones de trabajo compactas.

    Carcasa 3D de LEGO para Mac mini M4: de 1979 a escritorio
    hace 3 días

    Claude Marketplace llega a México, unifica la compra de IA

    Anthropic lanzó Claude Marketplace el 15 de febrero de 2026, ofreciendo a empresas un saldo único para IA corporativa. Con 8 % de compañías >10 empleados usando IA (INGI 2024) y una adopción del 72 % (IDC/Lenovo 2025), la demanda crece. El gasto se prevé en 32,884 millones para 2025. La plataforma puede reducir el tiempo de aprobación hasta un 30 % y aliviar la escasez de talento.

    Claude Marketplace llega a México, unifica la compra de IA
    hace 6 días

    iPhone 17e vs iPhone 17: ¿Cuál encaja mejor en tu rutina?

    Este artículo desglosa los cinco factores clave que diferencian al iPhone 17e del iPhone 17: costo y opciones de financiación, tamaño y frecuencia de pantalla, potencia del chipset y GPU, capacidades fotográficas y autonomía de batería. Con una tabla comparativa y ejemplos de uso cotidiano, podrás decidir cuál se alinea mejor con tu estilo de vida y tus prioridades financieras.

    hace 6 días

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos

    Microsoft patentó una IA para Xbox que detecta frustración, como muertes consecutivas o estancamiento, guarda el estado y ejecuta en la nube una sesión asistida en menos de 2 segundos. El jugador decide si acepta la ayuda, lo que podría mejorar la accesibilidad para usuarios con discapacidades motoras y disminuir la tasa de abandono por dificultad.

    Microsoft lanza una IA que asiste en Xbox y supera obstáculos
    hace 6 días

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p

    El 5 de marzo de 2026 TCL lanzó el monitor OLED 32X3A, pantalla premium de 80 cm con 480 Hz a 1080p y 240 Hz a 4K. Su panel OLED+ de 10‑bit cubre el 99 % DCI‑P3 y sRGB, alcanza 1,300 nits y responde en 0,03 ms. Incluye FreeSync Premium, G‑Sync, AI crosshair y sensor de brillo automático, y conecta vía HDMI 2.1, DisplayPort 2.1 y USB‑C 90 W. Solo disponible en China.

    TCL lanza el monitor OLED 32X3A con 480 Hz a 1080p
    hace 6 días
    Loading...