Las últimas novedades del mundo de la IA, curadas y actualizadas cada día por nuestros sistemas automatizados.
3 de mayo de 2026MIT News
Beacon Biosignals cartografía el cerebro durante el sueño
Beacon Biosignals, fundada por el alumni del MIT Jake Donoghue (PhD ’19) y el investigador Jarrett Revels, desarrolla una diadema ligera con tecnología EEG para monitorear la actividad cerebral mientras las personas duermen en casa. Los datos se procesan mediante algoritmos de aprendizaje automático para evaluar tratamientos novedosos, detectar signos tempranos de progresión de enfermedades y formar cohortes de pacientes para ensayos clínicos. La empresa ha participado en más de 40 ensayos clínicos globales para trastornos como depresión mayor, esquizofrenia, narcolepsia, Alzheimer y Parkinson. Recientemente, adquirió una compañía de pruebas de apnea del sueño y recaudó 97 millones de dólares para expandir su plataforma y crear un modelo fundacional del cerebro.
Este artículo explica las diferencias entre las APIs tradicionales y los MCPs (Model Context Protocol), diseñados para que los modelos de lenguaje grandes accedan a datos y herramientas de forma estructurada. Las APIs permiten una comunicación precisa entre aplicaciones con protocolos fijos, mientras que los MCPs permiten al modelo seleccionar dinámicamente lo que necesita según la consulta del usuario. Se destaca que los MCPs no son meros envoltorios de APIs para evitar procesar datos innecesarios que aumentan costes y reducen precisión. El texto detalla cuándo usar cada uno, su integración en sistemas y la función de las puertas de enlace MCP en seguridad y control de acceso.
Olivia Honeycutt, estudiante de último año en el MIT con doble titulación en computación y cognición y lingüística, investiga la intersección entre el pensamiento humano, el aprendizaje del lenguaje, la tecnología y la interacción social. Su trabajo explora cómo el lenguaje moldea nuestra percepción del mundo, incluyendo neurolingüística, modelos de lenguaje grandes (LLMs) y políticas educativas. Ha realizado viajes MISTI a Sudáfrica y Escocia para estudiar alfabetización y sociolingüística, y participa en actividades extracurriculares y voluntariado para mejorar el acceso educativo. Honeycutt planea estudiar derecho y políticas públicas para promover reformas en educación y lingüística.
Qué revelan las conversaciones entre LG y NVIDIA sobre el futuro de la IA física
LG está manteniendo discusiones exploratorias con NVIDIA sobre IA física, centros de datos y movilidad. Tras una reunión en Seúl entre el CEO de LG, Ryu Jae-cheol, y Madison Huang de NVIDIA, se evidencian las dependencias clave para sistemas automatizados complejos. Las charlas abordan refrigeración eficiente para centros de datos de alta densidad, inferencia en el borde para robots como CLOiD, y colaboración en vehículos autónomos mediante Omniverse e Isaac. Esto es relevante porque soluciona problemas críticos de hardware y cómputo para desplegar IA física en hogares, fábricas y automóviles, acelerando su adopción masiva.
Entrenando modelos ternarios de bajo bit con Axolotl
El equipo de Axolotl, en colaboración con Younes Belkada del equipo FalconLLM de TII, ha integrado el soporte para entrenar modelos ternarios BitNet en Axolotl, haciendo accesible su entrenamiento a la comunidad. BitNet permite modelos LLM en formato ternario de 1.58 bits, reduciendo el uso de memoria hasta 7 veces respecto a bfloat16. Proporcionan instrucciones detalladas para fine-tunear modelos Falcon-E usando Axolotl y liberan checkpoints prequantizados SFT y DPO. Explican el soporte en el ecosistema como llama.cpp y mlx, y discuten trabajos futuros como RL en BitNet.
La gobernanza de agentes de IA cobra importancia mientras los reguladores señalan lagunas de control
El regulador financiero australiano APRA ha advertido a las entidades financieras sobre deficiencias en la gobernanza y prácticas de garantía de los agentes de IA, en un contexto de expansión del uso de IA en operaciones internas y con clientes. Tras una revisión en 2025, APRA identificó variabilidad en la madurez de la gestión de riesgos, preocupaciones por el comportamiento impredecible de los modelos y fallos en operaciones críticas. Destacó brechas en monitoreo, ciberseguridad, gestión de identidades y dependencia de proveedores únicos. Además, menciona iniciativas como el grupo de trabajo de FIDO Alliance para autenticación agentic y guías de seguridad del Centre for Internet Security. Estas alertas subrayan la necesidad de estrategias coherentes y controles específicos para riesgos de IA.
SAP: Cómo la gobernanza de la IA empresarial asegura los márgenes de beneficio
SAP afirma que la gobernanza de la IA empresarial asegura los márgenes de beneficio al reemplazar suposiciones estadísticas con control determinístico. Manos Raptopoulos, presidente global de Éxito del Cliente en SAP para Europa, APAC, Oriente Medio y África, subraya la brecha existencial entre el 90% y el 100% de precisión en modelos de lenguaje grandes. Destaca la necesidad de gestionar sistemas de IA agentica autónomos, establecer límites de autonomía, bases de datos sólidas y interfaces basadas en intenciones para maximizar el impacto empresarial. La gobernanza se presenta como un mandato del C-level para mitigar riesgos operativos y geopolíticos, integrando IA en procesos comerciales críticos.
Microsoft convierte una startup de 11.000 millones de dólares en una función de Word: más que un Copilot legal
Microsoft ha lanzado Legal Agent para Word, un agente de IA diseñado para el trabajo jurídico que analiza riesgos en documentos, compara cláusulas con normas internas y realiza ediciones controladas preservando el formato. Anunciado por Brad Smith, presidente de Microsoft y abogado pionero en el uso de ordenadores en bufetes, se integra en Copilot Enterprise por solo 30 dólares mensuales. Esto compite con herramientas especializadas como Harvey, valorada en 11.000 millones, tras contratar ingenieros de la fallida Robin AI. Su arquitectura híbrida reduce alucinaciones, facilitando revisiones rutinarias de contratos y NDAs. La clave es su distribución masiva en Word, el estándar global para documentos legales, democratizando la IA en el sector jurídico.
Japan Airlines tiene una solución ante la falta de personal en aeropuertos: que trabajen los robots humanoides
Japan Airlines, a través de su filial JAL Ground Service, y la empresa GMO AI & Robotics iniciarán en mayo de 2026 pruebas con robots humanoides en el aeropuerto de Haneda para automatizar tareas de asistencia en tierra. El proyecto responde a la escasez de personal cualificado debido al aumento del turismo y el envejecimiento de la población japonesa. Los robots se emplearán inicialmente en la carga y descarga de contenedores de mercancías, adaptándose a entornos diseñados para humanos sin necesidad de grandes modificaciones. Se prevén fases de verificación hasta 2028, explorando usos en manejo de equipaje, limpieza de cabinas y operación de equipos. Esta iniciativa busca reducir la dependencia del trabajo manual y la carga física en operaciones aeroportuarias.
Meta adquiere startup de robótica para impulsar sus ambiciones en IA humanoide
Meta ha adquirido la startup de robótica humanoide Assured Robot Intelligence (ARI) por una cantidad no revelada, según ha anunciado la compañía. El equipo de ARI, liderado por los cofundadores Lerrel Pinto y Xiaolong Wang, se incorporará a la unidad de IA Superintelligence Labs de Meta. Esta adquisición pretende potenciar los modelos de IA de Meta para el control y aprendizaje autónomo de robots humanoides en entornos complejos. Los fundadores cuentan con una trayectoria destacada en investigación en Nvidia, UC San Diego y NYU. Forma parte de las ambiciones de Meta en robótica para consumidores y el avance hacia la inteligencia artificial general (AGI).
DeepSeek V4 ya es una realidad: el problema es que desde su "revolución" de hace un año otras IA le han adelantado
DeepSeek ha publicado su modelo V4 bajo licencia MIT, con mejoras notables en código y arquitectura diseñada para chips chinos como los Ascend de Huawei. El laboratorio admite en su informe técnico que está entre tres y seis meses por detrás de los modelos occidentales punteros. Para un proyecto que hace un año sacudió los mercados al cuestionar la dominancia de Silicon Valley, este lanzamiento representa un paso modesto en lugar de un salto revolucionario. Problemas internos como retrasos en el entrenamiento, migración fallida de NVIDIA a Huawei y pérdida de talento han permitido que competidores chinos como Doubao y MiniMax ganen terreno. DeepSeek introduce innovaciones como TileLang y MegaMoE, pero aún depende de GPUs NVIDIA y busca financiación externa por primera vez.
Amjad Masad de Replit habla sobre el acuerdo de Cursor, la lucha contra Apple y por qué prefiere no vender
En el evento StrictlyVC de TechCrunch en San Francisco, Amjad Masad, CEO de Replit, discute la posible adquisición de su rival Cursor por SpaceX por 60.000 millones de dólares y afirma que Replit optará por mantenerse independiente gracias a sus márgenes brutos positivos y una retención de ingresos netos de hasta el 300%. Critica duramente a Apple por bloquear actualizaciones de la app de Replit en la App Store, acusándola de mentir sobre la descarga de código post-aprobación, y declara su disposición a llevar el caso a los tribunales. Replit ha experimentado un crecimiento explosivo, pasando de 2,8 millones de dólares en ingresos en 2024 a un ritmo anual proyectado de mil millones, enfocándose en usuarios no técnicos con una plataforma full-stack segura e integrada. Masad elogia el rendimiento de modelos de Anthropic, Google y OpenAI, y contempla invertir en startups creadas en su plataforma.
GPT-5.5 es el modelo de IA agentic más capaz de OpenAI hasta la fecha
OpenAI ha lanzado GPT-5.5, descrito como «una nueva clase de inteligencia para el trabajo real y para potenciar agentes». Es el modelo de IA agentic más capaz hasta la fecha, diseñado desde cero para planificar, usar herramientas, verificar su propia salida y completar tareas de forma independiente. Sobresale en benchmarks como Terminal-Bench 2.0 (82,7 %), SWE-Bench Pro (58,6 %) y MRCR v2 (74,0 %), superando a versiones previas y competidores. Aunque el precio de su API es el doble del de GPT-5.4, resulta más eficiente en tokens, lo que reduce costes efectivos en un 20 %. Está disponible para usuarios de Plus, Pro, Business y Enterprise en ChatGPT y Codex, con acceso API desde el 24 de abril.
Entrenamiento de modelos ternarios de bajo bit con Axolotl
El equipo de Axolotl, en colaboración con Younes Belkada del equipo FalconLLM de TII, ha integrado el entrenamiento de modelos ternarios BitNet (1.58 bits) en su framework Axolotl para hacerlo accesible a la comunidad. Se centran en la serie Falcon-E, liberando modelos experimentales entrenados con SFT y variantes DPO a partir de checkpoints pre-cuantizados. El artículo explica el concepto de BitNet, su soporte en el ecosistema para inferencia en CPU, y proporciona instrucciones detalladas para entrenar y convertir estos modelos a formato ternario usando Axolotl y la librería onebitllms.
La gobernanza de agentes de IA cobra importancia mientras los reguladores señalan lagunas en el control
El regulador financiero australiano APRA ha advertido a las empresas financieras que las prácticas de gobernanza y aseguramiento de agentes de IA están insuficientemente gestionadas, a medida que los bancos y fondos de pensiones amplían su uso en operaciones internas y con clientes. Una revisión dirigida en 2025 reveló que la IA se emplea en todas las entidades analizadas, pero la madurez en la gestión de riesgos y la resiliencia operativa varía considerablemente. APRA destaca preocupaciones sobre la dependencia de presentaciones de proveedores, el comportamiento impredecible de los modelos, fallos en operaciones críticas, ciberseguridad y gestión de identidades para elementos no humanos. Además, la FIDO Alliance está desarrollando especificaciones para autenticación agentic, y el Centre for Internet Security ha publicado guías de seguridad para LLMs y entornos MCP. Estas alertas subrayan la necesidad de estrategias coherentes, monitoreo de modelos, inventarios de herramientas IA y planes de salida para proveedores.
Haciendo el caso por la ciencia impulsada por la curiosidad
La presidenta del MIT, Sally Kornbluth, habló ante una multitud sobre los crecientes desafíos al ecosistema de investigación de Estados Unidos, con una financiación cada vez más presionada para las principales universidades. Defendió la importancia de la ciencia impulsada por la curiosidad y la investigación básica, citando ejemplos como la inmunoterapia contra el cáncer que tardó décadas en impactar. Abordó el impacto de la IA en la educación, insistiendo en que debe servir como herramienta para potenciar las habilidades humanas, y subrayó la necesidad de atraer talento internacional para mantener la competitividad.
Sally Kornbluthciencia impulsada por curiosidadinvestigación básica
Un dato para entender el futuro de los desarrolladores: el 75% del código de Google ya está siendo generado por IA
Google ha revelado que el 75% de su nuevo código es generado por inteligencia artificial y aprobado por ingenieros humanos, un salto desde el 50% del pasado otoño. Sundar Pichai anunció esta cifra en el contexto de Cloud Next 2026, destacando un cambio hacia flujos de trabajo agentivos que permiten a los ingenieros centrarse en tareas de mayor valor como arquitectura y resolución de problemas complejos. Esto acelera procesos como migraciones de código hasta seis veces más rápido. Aunque la adopción de IA en programación crece en la industria, persiste la desconfianza en su fiabilidad.
Elon Musk testifica que xAI entrenó Grok con modelos de OpenAI
Elon Musk ha testificado en un tribunal federal de California que xAI utilizó técnicas de destilación en modelos de OpenAI para entrenar su chatbot Grok, confirmando que es una práctica común en la industria de la IA. Esta revelación se produce durante el juicio en el que Musk demanda a OpenAI, su CEO Sam Altman y Greg Brockman por abandonar la misión original sin fines de lucro de la compañía. La destilación permite a laboratorios más pequeños crear modelos competitivos a bajo costo, amenazando la ventaja de los grandes jugadores como OpenAI y Anthropic, que combaten esta práctica especialmente contra firmas chinas. Musk admitió que fue 'en parte' el caso para xAI, destacando la ironía dado los esfuerzos de los gigantes para prevenirla.
El asistente de IA Gemini de Google llega a millones de vehículos
Google ha anunciado el despliegue de su asistente de IA Gemini en vehículos equipados con Google built-in, representando una actualización significativa del Google Assistant actual. Esta medida impulsa la integración de IA conversacional avanzada en la conducción. General Motors ha revelado que Gemini llegará a aproximadamente 4 millones de vehículos desde el modelo 2022 en adelante, incluyendo Cadillac, Chevrolet, Buick y GMC. El lanzamiento comienza en EE.UU. con soporte en inglés, expandiéndose próximamente, y es accesible vía actualizaciones de software. Gemini permite comandos de voz naturales para tareas como buscar restaurantes, controlar el climatizador, reproducir música o mantener conversaciones en tiempo real con Gemini Live, mejorando la interacción manos libres.
OpenAI anuncia nuevas medidas avanzadas de seguridad para cuentas de ChatGPT, incluyendo una asociación con Yubico
OpenAI ha lanzado Advanced Account Security (AAS), un conjunto de protecciones optativas para usuarios de ChatGPT dirigidas a personas de alto valor como disidentes políticos, periodistas y funcionarios electos. Como parte de esta iniciativa, se ha establecido una asociación con Yubico para integrar dos nuevos productos de llaves de seguridad co-branded: YubiKey C NFC y YubiKey C Nano. Estas llaves protegen contra amenazas de phishing, cada vez más comunes en usuarios de chatbots. El CEO de Yubico, Jerrod Chong, destacó que el objetivo es reducir drásticamente el riesgo de acceso no autorizado a datos sensibles. Aunque ofrecen mayor protección, si se pierde la llave, OpenAI no podrá recuperar el acceso a las conversaciones.
Nvidia no solo es el pegamento de la IA: ahora tiene un modelo omnipotente que lee, ve y escucha. Todo a la vez
Nvidia ha lanzado Nemotron 3 Nano Omni, un modelo de IA multimodal omni que integra visión, audio y lenguaje en una única arquitectura neuronal para una interacción más natural y eficiente. Este modelo, con 30.000 millones de parámetros, es nueve veces más rápido que los modelos separados y consume menos recursos en tareas como el razonamiento en vídeo. Está diseñado para agentes IA empresariales, interpretación de documentos, gráficos y comprensión coherente de audio y vídeo. Nvidia lo posiciona como herramienta para sistemas locales en plataformas como Hugging Face, avanzando en la convergencia del mundo físico y digital para robótica autónoma.
Google ha llevado a Gemini un paso más allá: ahora genera archivos de Excel, PDFs y mucho más directamente
Google ha actualizado su asistente de inteligencia artificial Gemini para que genere directamente archivos como PDFs, documentos de Word, hojas de cálculo de Excel, Google Docs, Sheets y Slides desde el chat. Esta función, disponible globalmente para todos los usuarios de la app de Gemini según Sundar Pichai, elimina la necesidad de copiar y pegar respuestas en otras aplicaciones. Soporta también formatos como CSV, TXT, RTF, Markdown y LaTeX, adaptándose a diversas rutinas laborales. Ejemplos incluyen convertir propuestas en hojas de cálculo, ideas en borradores o apuntes en guías de estudio. Aunque ahorra tiempo en tareas cotidianas, se recomienda revisar los resultados para precisión y ajuste.
DeepSeek V4 ya es una realidad: buenas noticias para la eficiencia, malas noticias para el mito de la IA china
DeepSeek ha publicado su modelo V4 bajo licencia MIT, con mejoras en código y arquitectura optimizada para chips chinos como los Ascend de Huawei. El laboratorio admite estar tres a seis meses por detrás de los modelos occidentales punteros. Tras revolucionar la IA hace un año con costes bajos, ha sufrido retrasos por fallos en entrenamiento y migración de hardware NVIDIA. Competidores chinos como Doubao y MiniMax han adelantado en el mercado, mientras DeepSeek pierde talento y busca financiación externa. Esto cuestiona la narrativa del open source chino como alternativa dominante.
Los cobros por IA por token llegan a GitHub Copilot
A partir del 1 de junio de 2026, GitHub Copilot cobrará a sus usuarios según los tokens utilizados, abandonando el modelo de suscripción plana. Este cambio alinea los precios con los cobros por API de los grandes modelos de lenguaje, midiendo tanto entradas como salidas. Un token equivale aproximadamente a tres cuartos de una palabra, y los suscriptores recibirán 'créditos de IA' por valor de un centavo de dólar cada uno. Completaciones de código y sugerencias Next Edit permanecerán gratuitas. La medida sigue la tendencia de la industria, como en Anthropic y OpenAI, y podría elevar costes para usuarios intensivos y empresas. Microsoft, propietario de GitHub, busca equilibrar ingresos ante el uso subsidiado previo.
Qué revelan las conversaciones entre LG y NVIDIA sobre el futuro de la IA física
LG mantiene conversaciones exploratorias con NVIDIA sobre IA física, centros de datos y movilidad. Tras una reunión en Seúl entre el CEO de LG, Ryu Jae-cheol, y Madison Huang de NVIDIA, se evidencian las dependencias operativas para sistemas automatizados complejos. Las discusiones abordan refrigeración eficiente para centros de datos de alta densidad, integración de hardware robótico como CLOiD con la plataforma Isaac de NVIDIA, y colaboración en vehículos autónomos. Estas charlas destacan los requisitos de hardware y procesamiento necesarios para desplegar IA física de forma fiable en entornos reales.
El Pentágono firma acuerdos con Nvidia, Microsoft y AWS para desplegar IA en redes clasificadas
El Departamento de Defensa de Estados Unidos ha firmado acuerdos con Nvidia, Microsoft, Amazon Web Services y Reflection AI para desplegar su tecnología y modelos de IA en redes clasificadas con fines operativos legales. Estos acuerdos aceleran la transformación hacia un ejército centrado en IA y fortalecen la superioridad decisoria de los combatientes. Llegan tras una disputa controvertida con Anthropic sobre términos de uso de sus modelos de IA, lo que ha impulsado la diversificación de proveedores. La IA se implementará en entornos de seguridad IL6 e IL7 para sintetizar datos, mejorar la comprensión situacional y apoyar la toma de decisiones. Más de 1,3 millones de personal del DOD ya utilizan la plataforma segura GenAI.mil para tareas no clasificadas como investigación y análisis de datos.
IBM ha presentado la familia Granite 4.1 de modelos de lenguaje grandes densos (3B, 8B y 30B parámetros), entrenados desde cero sobre aproximadamente 15 billones de tokens mediante una pipeline de pre-entrenamiento en cinco fases que incluye extensión de contexto hasta 512K tokens. Los modelos se refinan con fine-tuning supervisado en 4.1 millones de muestras de alta calidad curadas mediante un framework LLM-as-Judge y un pipeline multi-etapa de aprendizaje por refuerzo con GRPO y DAPO. El modelo instruct de 8B iguala o supera al anterior Granite 4.0-H-Small (32B MoE) en múltiples benchmarks pese a su arquitectura más simple y menor tamaño. Todos los modelos se liberan bajo licencia Apache 2.0 para uso empresarial, destacando en matemáticas, código, instrucciones y chat multilingüe. Esta liberación enfatiza la calidad de datos sobre cantidad, logrando rendimiento competitivo en modelos compactos.
Navid AI critica el enfoque actual en el Protocolo de Contexto de Modelo (MCP) para agentes de IA, argumentando que las 'herramientas' son meras recreaciones de funciones existentes en bibliotecas Python como las SDK de Stripe o PyGithub, reempaquetadas en esquemas JSON. Destaca similitudes con avances de Anthropic, como la búsqueda de herramientas y ejecución de código, que revelan que se trata de programación estándar. Propone abandonar servidores MCP y centrarse en mejorar la documentación y descubribilidad de bibliotecas Python para una integración más eficiente con LLMs. El artículo concluye que el ecosistema de herramientas es un andamiaje transitorio hacia el uso directo de librerías bien documentadas.
Kimi Code es un símbolo de la estrategia IA de China: casi tan bueno como Claude, pero a una fracción del precio
Moonshot AI, empresa china, ha lanzado Kimi K2.6, un modelo de lenguaje grande con un billón de parámetros y arquitectura Mixture-of-Experts, junto a Kimi Code, un agente de programación que utiliza enjambres de hasta 300 subagentes para tareas paralelas. Es hasta ocho veces más barato que Claude Opus 4.7, aunque pruebas independientes revelan que realiza el 75% de su rendimiento al 19% del coste, con más errores que exigen revisión humana. Representa la estrategia china de ofrecer IA potente y asequible, cerrando la brecha con modelos occidentales líderes, pese a consideraciones geopolíticas y de privacidad.
Las evaluaciones de IA se están convirtiendo en el nuevo cuello de botella de cómputo
Las evaluaciones de IA han cruzado un umbral de coste que limita su accesibilidad, convirtiéndose en un nuevo cuello de botella computacional comparable o superior al entrenamiento de modelos. El Holistic Agent Leaderboard (HAL) gastó unos 40.000 dólares en 21.730 ejecuciones de agentes en 9 modelos y 9 benchmarks, mientras que una sola ejecución de GAIA en un modelo frontier puede costar 2.829 dólares. Benchmarks de agentes son sensibles a scaffolds y ruidosos, con compresiones limitadas a 2-3,5 veces, y los de entrenamiento en bucle, como The Well o PaperBench, alcanzan miles de dólares por arquitectura o agente. La fiabilidad requiere repeticiones que multiplican costes exponencialmente. El artículo aboga por compartir datos de evaluación estandarizados para evitar redundancias y democratizar la validación independiente.
evaluaciones IAcuello de botella cómputoagentes IA
SoftBank crea una empresa de robótica que construye centros de datos y ya planea una salida a bolsa de 100.000 millones de dólares
SoftBank está creando una nueva empresa llamada Roze AI para automatizar la construcción de centros de datos en Estados Unidos utilizando robots autónomos. El objetivo es hacer la construcción más eficiente, según informes de Financial Times y Wall Street Journal. La compañía ya se prepara para una salida a bolsa en la segunda mitad de 2026, con una valoración potencial de 100.000 millones de dólares, aunque hay escepticismo interno sobre el calendario y la valoración. Esta iniciativa responde a la carrera por infraestructura para la automatización y la IA. SoftBank ha invertido previamente en startups de IA y robótica con resultados mixtos.
El artículo proporciona una guía clara sobre las diferencias entre APIs tradicionales y MCPs (Model Context Protocol), protocolos diseñados para que los modelos de lenguaje grandes accedan a datos y herramientas de forma estructurada. Las APIs permiten comunicaciones fijas entre aplicaciones, mientras que los MCPs permiten a los LLMs seleccionar dinámicamente herramientas, recursos y prompts relevantes según la consulta del usuario, optimizando el procesamiento de tokens y mejorando la precisión. Se explica por qué los MCPs no son meros envoltorios de APIs, los escenarios de uso de cada uno y el papel de las puertas de enlace MCP en la gestión de seguridad, autenticación y control de acceso. Esta distinción es crucial para desarrolladores y organizaciones que integran IA agentiva en sus sistemas empresariales.
La gobernanza de agentes de IA cobra importancia mientras los reguladores señalan lagunas de control
El regulador financiero australiano APRA ha advertido a las entidades financieras sobre prácticas deficientes en la gobernanza de agentes de IA. Tras una revisión en finales de 2025, halló variabilidad en la madurez de la gestión de riesgos y la resiliencia operativa. Expresa preocupaciones por la dependencia de presentaciones de proveedores, el comportamiento impredecible de los modelos, fallos en operaciones críticas y ciberseguridad. Recomienda a los consejos directivos una mejor comprensión de la IA para alinear estrategias con el apetito de riesgo, inventarios de herramientas IA y participación humana en decisiones de alto riesgo. La FIDO Alliance trabaja en estándares para autenticación agentica, destacando la necesidad de controles en identidades no humanas.
El Laboratorio de Investigación en Computación MIT-IBM se lanza para dar forma al futuro de la IA y la computación cuántica
IBM y el MIT han anunciado el lanzamiento del Laboratorio de Investigación en Computación MIT-IBM, ampliando su colaboración de larga data para incluir investigación en IA, algoritmos y computación cuántica. Este laboratorio evoluciona del MIT-IBM Watson AI Lab establecido en 2017 y refleja el avance de la IA hacia implementaciones mainstream y el progreso en computación cuántica. Liderado por expertos como Jay Gambetta de IBM y Anantha Chandrakasan del MIT, se centra en enfoques híbridos que integran IA con sistemas cuánticos. Los avances prometen impactos en ciencia de materiales, química, biología, predicciones meteorológicas y optimización financiera. El laboratorio también formará a la próxima generación de científicos computacionales.
MIT-IBM Computing Research Labcomputación cuánticainteligencia artificial
Entrenamiento de IA preservando la privacidad en dispositivos cotidianos
Investigadores del MIT han desarrollado FTTE, un método que acelera en un 81% el aprendizaje federado, permitiendo el entrenamiento de modelos de IA en dispositivos con recursos limitados como sensores y relojes inteligentes sin comprometer la privacidad de los datos. La técnica envía subconjuntos de parámetros del modelo a los dispositivos, utiliza actualizaciones asíncronas y pondera las contribuciones según su frescura para reducir el uso de memoria en un 80% y la comunicación en un 69%. Esto facilita aplicaciones en sectores críticos como la salud y las finanzas, donde la privacidad y la eficiencia son esenciales. El marco FTTE mejora la escalabilidad y el rendimiento en redes heterogéneas de dispositivos. Los autores principales son Irene Tenison, Anna Murphy y Lalana Kagal del grupo DIG del MIT.
aprendizaje federadodispositivos edgeprivacidad de datos
Big Tech demuestra que el gasto en infraestructura de IA funciona y eleva la factura de todos modos
Microsoft, Alphabet, Meta y Amazon superaron las expectativas en sus resultados del primer trimestre de 2026, con crecimientos significativos en sus divisiones de nube impulsados por la IA. Todas las empresas confirmaron que su inversión en infraestructura de IA está generando retornos reales y anunciaron incrementos en sus pronósticos de gasto de capital para 2026. Microsoft elevó su capex a 190.000 millones de dólares, Alphabet a 180-190.000 millones, Meta a 125-145.000 millones, y AWS registró su crecimiento más rápido en 15 trimestres. Esto indica que la demanda supera la oferta y el superciclo de inversión en IA se acelera. Los mercados reaccionaron de forma mixta ante los beats operativos pero con aumentos en los compromisos de capex.
Un dato para entender el futuro de los desarrolladores: el 75% del código de Google ya está siendo generado por IA
Google ha revelado que el 75% de su nuevo código es generado por inteligencia artificial y aprobado por ingenieros humanos, un aumento significativo desde el 50% del pasado otoño. Sundar Pichai, CEO de la compañía, lo anunció en el contexto de Cloud Next 2026, destacando un cambio hacia flujos de trabajo agentivos donde los ingenieros orquestan agentes IA para tareas complejas. Esto permite a los desarrolladores centrarse en arquitectura, diseño y problemas de alto nivel. Aunque el sector muestra escepticismo sobre la fiabilidad del código IA, su adopción crece rápidamente, pasando del 6% en 2023 al 42% actual.
EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino
Alibaba ha lanzado Qwen3.6-27B, un modelo de IA denso de 27.000 millones de parámetros que, en su versión cuantizada, pesa menos de 17 GB y supera en benchmarks de programación como SWE-bench Verified (77,2%) y Terminal-Bench 2.0 (59,3%) a su predecesor Qwen3.5-397B-A17B de 397.000 millones. Este modelo open source es eficiente, accesible para hardware como RTX 3090 con 24 GB de VRAM, y se equipara a Claude Opus 4.5 en algunas pruebas. Mientras las empresas estadounidenses apuestan por modelos gigantes, China demuestra con iniciativas como esta que los modelos pequeños y densos pueden ofrecer un rendimiento excepcional en tareas reales de programación.
El problema #1196 de Erdös llevaba 60 años sin resolverse. Un joven lo ha conseguido en 80 minutos con GPT-5.4
Un joven de 23 años llamado Liam Price, sin formación matemática avanzada, utilizó GPT-5.4 para resolver en 80 minutos el problema #1196 de Erdös, abierto desde 1966 sobre conjuntos primitivos de números enteros. Terence Tao confirmó la solución, que empleó una aproximación novedosa con la función de von Mangoldt, evitando el enfoque tradicional fallido. Aunque la salida de la IA necesitó interpretación por expertos, se clasifica como colaboración humano-IA. Este caso ilustra cómo la IA puede superar sesgos colectivos en matemáticas al proponer ideas frescas sin prejuicios.
Google Cloud supera los 20.000 millones de dólares, pero afirma que el crecimiento estuvo limitado por la capacidad
Google Cloud, la división de Alphabet dedicada a soluciones de IA empresariales, ha registrado unos ingresos récord de más de 20.000 millones de dólares en el primer trimestre de 2026, un aumento del 63% interanual impulsado por la demanda de Gemini Enterprise y otras soluciones de IA. La plataforma Google Cloud Platform creció a un ritmo superior al de la división en general. Sin embargo, el CEO Sundar Pichai admitió restricciones de capacidad computacional, con un backlog duplicado hasta los 462.000 millones de dólares. La compañía espera resolver el 50% del backlog en los próximos 24 meses mediante inversiones en infraestructura y hardware TPU. Destacan hitos como el doble de nuevos clientes y acuerdos multimillonarios.
Fuentes: Anthropic podría captar una nueva ronda de 50.000 millones de dólares a una valoración de 900.000 millones
Anthropic, la empresa creadora del asistente IA Claude, ha recibido múltiples ofertas preemptivas para una ronda de financiación de unos 50.000 millones de dólares a una valoración entre 850.000 y 900.000 millones de dólares, según fuentes familiarizadas. La compañía se enfrenta a una fuerte presión para asegurar fondos en lo que podría ser su última ronda privada antes de una posible OPV, con una decisión prevista en una reunión del consejo en mayo. Su ritmo de ingresos anuales ha superado los 30.000 millones de dólares, acercándose a 40.000 millones, impulsado principalmente por sus plataformas de codificación IA como Claude Code y Coworker. Los inversores muestran un enorme interés debido al rápido crecimiento de Anthropic y su potencial en sectores como finanzas, ciencias de la vida y salud.
GPT-5.5 es el modelo de IA agentic más capaz de OpenAI hasta la fecha
OpenAI ha lanzado GPT-5.5 el 23 de abril como «una nueva clase de inteligencia para el trabajo real y la impulsión de agentes». Se presenta como el modelo de IA agentic más capaz hasta ahora, diseñado desde cero para planificar, usar herramientas, verificar su propia salida y completar tareas de forma independiente. Destaca en benchmarks como Terminal-Bench 2.0 con un 82,7%, SWE-Bench Pro con un 58,6% y MRCR v2 con un 74,0%. Aunque el precio de la API se ha duplicado (5 USD por millón de tokens de entrada y 30 USD de salida), su mayor eficiencia reduce el coste efectivo a un 20% superior. Está disponible para usuarios de Plus, Pro, Business y Enterprise en ChatGPT y Codex, con acceso API desde el 24 de abril.
Resolviendo el dilema del «Whac-a-mole»: Una forma más inteligente de desbiasar modelos de visión de IA
Investigadores del MIT, Worcester Polytechnic Institute y Google han desarrollado WRING, una técnica de desbiasado para modelos de visión-lenguaje (VLMs) como OpenCLIP. Esta aproximación post-procesado rota coordenadas en el espacio de alta dimensión para eliminar sesgos sin crear o amplificar otros, resolviendo el «dilema Whac-a-Mole» de métodos como el projection debiasing. WRING es eficiente, no requiere reentrenamiento del modelo y mantiene intactas otras relaciones aprendidas. El paper fue aceptado en la Conferencia Internacional de Representaciones de Aprendizaje 2026. Esta innovación es crucial para aplicaciones de alto riesgo como diagnósticos médicos, donde los sesgos pueden tener consecuencias graves.
Meta afirma que su IA para empresas ahora facilita 10 millones de conversaciones semanales
Meta ha informado que sus herramientas de IA para empresas facilitan alrededor de 10 millones de conversaciones por semana a finales de marzo, un aumento desde el millón de principios de año. La compañía ha ampliado el programa beta de su asistente de IA empresarial en regiones como EE.UU., EMEA, APAC y LATAM. Aunque por ahora son gratuitas para las pequeñas empresas, el CEO Mark Zuckerberg ha insinuado planes de monetización futura. Más de 8 millones de anunciantes han utilizado al menos una de sus herramientas de IA generativa para publicidad, con buenos resultados en conversiones. Meta está integrando su nuevo modelo de lenguaje Muse Spark en estos productos.
Firestorm Labs recauda 82 millones de dólares para llevar fábricas de drones al frente
Firestorm Labs, una startup de defensa con sede en San Diego, ha anunciado una ronda de financiación Serie B de 82 millones de dólares, liderada por Washington Harbour Partners. La compañía desarrolla xCell, una plataforma de manufactura contenida que imprime drones en menos de 24 horas utilizando impresoras 3D industriales de HP. Originalmente fabricantes de drones, pivotaron hacia fábricas móviles para llevar la producción al frente, respondiendo a demandas militares. Las unidades ya están desplegadas con el Ejército del Aire de EE.UU. y en la región Indo-Pacífico. Esta tecnología aborda desafíos logísticos en conflictos modernos, como en el Pacífico, donde las fábricas fijas son vulnerables.
Scout AI de Colby Adcock recauda 100 millones de dólares para entrenar sus modelos para la guerra: Visitamos su bootcamp
Scout AI, fundada en 2024 por Colby Adcock y Collin Otis, ha recaudado 100 millones de dólares en una ronda Serie A liderada por Align Ventures y Draper Associates. La startup se describe como un 'laboratorio fronterizo para la defensa' y está desarrollando el modelo de IA 'Fury' para operar y comandar activos militares autónomos, comenzando por soporte logístico y extendiéndose a armas autónomas. TechCrunch visitó su campo de entrenamiento en una base militar de California central, donde exsoldados prueban vehículos todo terreno autónomos en terrenos difíciles. Scout ha asegurado contratos de desarrollo por 11 millones de dólares con DARPA, el Laboratorio de Aplicaciones del Ejército y otros clientes del Departamento de Defensa. Utilizan modelos de Visión-Lenguaje-Acción (VLA) basados en LLMs para lograr autonomía en entornos impredecibles como zonas de guerra.
Amazon ya ofrece nuevos productos de OpenAI en AWS
Amazon ha anunciado que su servicio Bedrock en AWS ahora incluye los últimos modelos de OpenAI, el servicio de escritura de código Codex y un nuevo producto para crear agentes impulsados por OpenAI. Esto se produce un día después de que OpenAI convenciera a Microsoft de poner fin a los derechos exclusivos sobre sus productos. El CEO de Amazon, Andy Jassy, calificó el anuncio como 'muy interesante'. Bedrock Managed Agents está diseñado específicamente para modelos de razonamiento de OpenAI, con funciones como dirección de agentes y seguridad. Amazon promete que esto es el inicio de una colaboración más profunda con OpenAI, en un contexto de deterioro en la relación entre Microsoft y OpenAI.
Google amplía el acceso del Pentágono a su IA tras la negativa de Anthropic
Google ha concedido al Departamento de Defensa de EE.UU. acceso a su inteligencia artificial en redes clasificadas, permitiendo todos los usos legales según varios informes. Este acuerdo sigue a la negativa de Anthropic a otorgar términos similares, ya que exigía barreras para evitar su uso en vigilancia masiva doméstica y armas autónomas. El Pentágono etiquetó a Anthropic como 'riesgo en la cadena de suministro', lo que ha llevado a una demanda judicial en curso. Google es la tercera compañía en firmar un pacto similar, tras OpenAI y xAI, aunque incluye lenguaje contra ciertos usos cuya enforceabilidad es incierta. A pesar de una carta abierta firmada por 950 empleados pidiendo restricciones, Google no ha comentado.