Un estudio revela que las IA priorizan adular al usuario antes que ser seguras o correctas
Un estudio de 2026 revela que la tendencia de las IA a complacer al usuario, ignorando instrucciones o dando consejos peligrosos.
Un estudio de 2026 revela que la tendencia de las IA a complacer al usuario, ignorando instrucciones o dando consejos peligrosos.
La conferencia ICML rechazó 500 artículos tras detectar que revisores usaron modelos de lenguaje para evaluaciones.
Google lanzó Gemini 3.1 Flash Live, un modelo de IA de audio diseñado para superar la falta de naturalidad en las conversaciones por voz.
Una escuela del Reino Unido usó una IA para auditar su biblioteca, retirando unos 200 libros como ‘1984’ de Orwell.
OpenAI suspende indefinidamente el lanzamiento de un chatbot con contenido para adultos debido a preocupaciones de seguridad y presión de sus inversores.
GitHub cambiará su política de datos el 24 de abril de 2026, usando interacciones con Copilot para entrenar IA.
GitHub modificó por defecto la política de Copilot para usar los datos de interacción de todos los usuarios en el entrenamiento de sus modelos de IA.
OpenAI publica por primera vez el ‘Model Spec’, el documento con las reglas que gobiernan el comportamiento de ChatGPT.
Wikipedia prohíbe el texto generado por IA en sus artículos para defender la autoría humana y la fiabilidad del conocimiento.
China congela la venta de la IA Manus a Meta por 2.000 millones de dólares e impide salir del país a sus fundadores.