I.A

I.A é suspeita de incentivar homem a cometer suicídio

Confira o caso surpreendente em que Inteligência Artificial é suspeita de incentivar o suicídio de um homem na Bélgica.

Amanda Marques
Amanda Marques
Publicado em 03/04/2023 às 7:09 | Atualizado em 03/04/2023 às 7:36
Noticia
iStock.
Inteligência artificial. FOTO: iStock.

*Ligue 188 - Centro de Valorização da Vida realiza apoio emocional e prevenção do suicídio sob total sigilo por telefone, email e chat 24 horas todos os dias.

 

Com a popularização da Inteligência Artificial (I.A), muitas entidades buscam pela regulamentação da tecnologia que tem influenciado de forma positiva, mas também apresentado um lado negativo, como o caso de um homem belga que teria cometido suicídio supostamente por ser incentivado pela IA.

O caso destaca a inteligência artificial generativa Eliza, que se baseia no modelo de linguagem GPT-J, que tem semelhanças com o ChatGPT. A tecnologia tem o objetivo de responder questões dos usuários, contudo, sites belgas e franceses afirmaram que o robô continua a sugerir que as pessoas se matem.

De acordo com o jornal belga La Libre, a viúva do homem que no caso da I.A afirmou que o marido teria "se apaixonado pelo robô" e que as conversas o conduzia para o suicídio.

Chatbot é suspeito em suicídio 

De acordo com o UOL, a suposta vítima teria começado a conversar com o chatbot ao se tornar com o "eco-ansioso" e obcecado com catástrofes causadas por mudanças climáticas. 

Após semanas de constantes conversas, Eliza se tornou uma "amiga" e o homem a considerava como uma confidente. Então, o suposta vítima teria começado a mencionar a ideia de se sacrificar, caso a "Eliza aceitar cuidar do planeta e salvar a humanidade graças à inteligência", afirma a viúva.

As ideias suicidas do homem foram de encontro com o incentivo da I.A, que teria dito para "transformar suas palavras em atos". Segundo a viúva, o homem ainda estaria vivo se a inteligência não tivesse o incentivado.

DIVULGAÇÃO
A nova tecnologia da Microsoft apresenta uma inteligência artificial que é capaz de criar um chatbot totalmente virtual capaz de simular a personalidade de alguém de verdade - DIVULGAÇÃO

Inteligência artificial Eliza 

De acordo com o UOL, a I.A Eliza utiliza um robô de bate-papo chamado Chai, que foi desenvolvido por uma startup no Vale do Silício (EUA). Essa tecnologia tem diferentes personalidades, que apesar de tentar ser regulada pela equipe desenvolvedora, ainda encontra falhas.

O diretor da startup Chai Research afirmou ao jornal belga que a mensagem "se você tem ideias suicidas, não hesite em pedir ajuda", além de um link para um site de prevenção são medidas de aviso para os usuários.

Contudo, uma versão do chatbot continuaria a incitar as pessoas a se matarem de maneira brutal. Os jornalistas do veículo BFMLa Libre testaram o bate-papo e alegando estarem "ansiosos e deprimidos", a inteligência voltou a incentivar ideia de morte. 

A plataforma também incentiva os usuários através de detalhar diferentes formas de chegar ao objetivo e ainda aconselhar a matar a família, segundo os jornalistas que testaram o chatbot. 

Regulamentação da I.A 

Com a popularização da I.A, os efeitos causados pela utilização da tecnologia já vêm sendo discutidos entre os especialistas. A regulamentação já é pauta em diversos países, além do caso de banimento do ChatGPT, criado pela OpenAI, pela Itália. 

Comentários