ver más
Ocurrió en Bélgica

Consternación por el suicidio de un hombre tras hablar con un chatbot

Un hombre belga se suicidió luego de haber hablado con un chatbot de una inteligencia artificial. Tenía 30 años, tenía dos hijos y era investigador en el área de salud
14 de abril de 2023 - 08:27

Un hombre belga preocupado por el medio ambiente encontró refugio en Eliza, el nombre que se le da a un chatbot que utiliza la inteligencia artificial y después de intensos intercambios de seis semanas, se quitó la vida. El suicidio causó consternación en Bélgica, donde el responsable federal de Digitalización instó a aclarar las responsabilidades en estos casos.

El hombre tenía 30 años y fue apodado Pierre en los medios para no revelar su identidad; estaba casado y tenía dos hijos pequeños. Era universitario, trabajaba como investigador en el área de la salud y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según reveló su esposa al diario La Libre Belgique.

“Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y terminó buscando "refugio" en este chatbot llamado Eliza”, expresó la viuda. "Desde ese momento, él comenzó a alejarse de su familia y a separarse del mundo”, añadió.

“Se limitó durante semanas a mantener conversaciones "frenéticas" con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes”, aceptó la mujer.

En las conversaciones, cuyo contenido entregó al medio, se demostró que el chatbot nunca contradecía a Pierre, quien un día sugirió la idea de "sacrificarse" si Eliza aceptaba "cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial".

"En el futuro inmediato es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos", escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI con el que no tiene nada que ver. Por su parte, el fundador de la plataforma cuestionada, que está establecida en Silicon Valley (California), explicó que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas.

Temas
Seguí leyendo

Dejá tu comentario

Te Puede Interesar