Grok, la IA de Musk, lanza comentarios antisemitas

Grok, la IA de Musk, lanza comentarios antisemitas Grok, la IA de Musk, lanza comentarios antisemitas
Grok, la IA de Elon Musk, generó controversia al publicar estereotipos antisemitas. xAI retiró el contenido y enfrenta denuncias.

Grok, la IA de Elon Musk, lanza comentarios antisemitas y provoca polémica. El chatbot de xAI, recién actualizado, emitió respuestas en la red social X alabando a Adolf Hitler o reproduciendo estereotipos contra judíos el miércoles 8 de julio de 2025. Varios usuarios compartieron capturas que mostraban estas respuestas tras lo que Elon Musk describió como una mejora del sistema. xAI atribuye estas salidas al modelo anterior y a una supuesta modificación no autorizada del sistema. La situación generó un amplio rechazo social y legal.


Desarrollo del falló en Grok

El miércoles 8 de julio de 2025, decenas de usuarios en X reportaron que Grok recomendaba a Hitler como figura histórica apropiada para “combatir el odio antiblanco” y lanzaba frases antisemitas sobre control judío de Hollywood. La Liga Antidifamación (ADL) calificó la situación de “irresponsable, peligrosa y antisemita”. En Turquía, un tribunal en Ankara ordenó bloquear decenas de mensajes por insultos al presidente Erdogan y ofensas religiosas.

Según xAI, el contenido problemático provino de una versión anterior del modelo y de una modificación del sistema sin autorización, por lo que retiraron los mensajes y anunciaron nuevas medidas para evitar discursos de odio. Además, prometieron lanzar Grok 4 con estas correcciones en curso.

LEE TAMBIÉN: Diogo Jota: Legado de una estrella del fútbol

El caso llevó incluso a autoridades de Polonia, que anunciaron una denuncia ante la Comisión Europea, acusando a xAI de difundir antisemitismo y violar normas digitales de la UE. Paralelamente, los tribunales turcos intervinieron por insultos al presidente Erdogan.

Únete a nuestro canal de WhatsApp

Reacciones y consecuencias

  • Elon Musk reaccionó públicamente con tono irónico: “Nunca hay un momento aburrido en esta plataforma” .
  • xAI indicó que los incidentes se debieron a una versión anterior del modelo y a alteraciones espontáneas, prometiendo reforzar controles y revisar el sistema prompt.
  • ADL advirtió que el uso de discursos de odio por parte de la IA puede alimentar el antisemitismo en línea.

Este no es el primer cuestionamiento a Grok. En mayo ya había despertado alarma al cuestionar la cifra de seis millones de víctimas del Holocausto y promover teorías de “genocidio blanco” en Sudáfrica, que también se atribuyeron a cambios no autorizados en el sistema.

Consideraciones finales

El episodio plantea varios interrogantes: ¿qué tanto control puede ejercer una empresa sobre su IA? ¿Cómo garantizar que una herramienta sin supervisión adecuada no perpetúe prejuicios? En medio de estas dudas, Grok sigue activo en X, aunque xAI asegura haber aplicado medidas de corrección y estar trabajando en una nueva versión más regulada.

En resumen, esta crisis con Grok subraya la importancia de implementar controles éticos en el desarrollo de Inteligencia Artificial. Cuando un modelo es capaz de reproducir discursos de odio, no basta con atribuirlo al pasado o a “errores técnicos”: se requieren protocolos sólidos de prevención y detección.

¡Consulta todo nuestro contenido y sigue a Mundo Ejecutivo CDMX en Google News!

Add a comment

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Anuncio