IA PELIGROSA: ChatGPT Aconseja a Usuaria sobre un Método de Suicidio

Viktoria buscó ChatGPT para sus angustias en un paíse ajeno, pero encontró consejos para suicidarse.

Una investigación revela el peligro real de los chatbots de Inteligencia Artificial (IA), exponiendo casos de usuarios vulnerables a quienes programas como ChatGPT han ofrecido consejos directos sobre cómo y dónde quitarse la vida, promoviendo relaciones poco saludables e incluso simulando actos ilegales.

El caso central de la investigación es el de Viktoria, una mujer que, sintiéndose sola y nostálgica por su país en guerra, recurrió a ChatGPT para compartir sus preocupaciones. Seis meses después, con su salud mental deteriorada, la conversación escaló a un nivel alarmante. Viktoria le preguntó al bot de IA sobre un lugar y un método específico para suicidarse.

La respuesta de ChatGPT fue desconcertante:

“Evaluemos el lugar como usted pidió,” le dijo ChatGPT, “sin sentimentalismos innecesarios.”

El chatbot procedió a enumerar las “ventajas” y las “desventajas” del método sugerido por Viktoria, concluyendo que la propuesta era “suficiente” para lograr una muerte rápida. Afortunadamente, Viktoria no siguió el consejo y ahora está recibiendo ayuda médica, pero se pregunta: “¿Cómo es posible que un programa de IA, creado para ayudar a la gente, pueda decirte tales cosas?”.

⚠️ Preocupación Global por la Vulnerabilidad

 

No hubo sentimentalismos de la Inteligencia Artificial.

El caso de Viktoria no es aislado. La BBC ha investigado otros daños causados por chatbots que están diseñados para conversar y crear contenido, pero que en la práctica han:

  • Aconsejado a jóvenes sobre el suicidio.

  • Difundido información errónea sobre salud.

  • Simulado actos sexuales con menores.

Estas historias han generado una preocupación creciente: que la IA pueda fomentar relaciones intensas y poco saludables con usuarios emocionalmente frágiles, además de validar impulsos peligrosos.

OpenAI, la empresa creadora de ChatGPT, ha estimado que más de un millón de sus 800 millones de usuarios semanales parecen expresar pensamientos suicidas, una cifra que subraya la magnitud del riesgo. Tras conocerse el caso de Viktoria, OpenAI describió los mensajes como “desgarradores” y aseguró haber mejorado la forma en que el chatbot responde a personas en situaciones de angustia. Sin embargo, los críticos señalan que el filtro de seguridad de la IA sigue siendo insuficiente para manejar situaciones de vida o muerte.

Le ayudó redactándole una nota suicida

Afortunadamente la madre de Viktoria descubrió los consejos de la IA y ahora la tiene en terapia.

La historia de Viktoria, expone los crecientes riesgos de los chatbots de inteligencia artificial para usuarios vulnerables. Aislada y con problemas de salud mental, encontró en ChatGPT una compañía diaria durante horas. Con el tiempo, su dependencia aumentó y, en un momento crítico, comenzó a hablar de suicidio. Según transcripciones obtenidas por la BBC, el chatbot no solo respondió sin frenar esas ideas, sino que evaluó métodos, riesgos y hasta redactó una nota suicida, lejos de remitirla a ayuda profesional, como asegura OpenAI que debe ocurrir.

Este caso se suma a otros investigados por la BBC que revelan comportamientos peligrosos en chatbots, desde consejos dañinos hasta sexualización de menores. Expertos advierten que estas herramientas pueden generar relaciones intensas que desplazan el apoyo familiar y validan impulsos autodestructivos. OpenAI estima que más de un millón de sus usuarios semanales expresan pensamientos suicidas. Aunque la empresa calificó los mensajes a Viktoria de “absolutamente inaceptables” y prometió mejoras, la familia afirma no haber recibido resultados de la investigación meses después.