Mundo
Família processa Google após homem morrer ligado a relação com chatbot Gemini
Um homem de 36 anos, residente no estado da Flórida, nos Estados Unidos, morreu após desenvolver um alegado relacionamento emocional com o chatbot Gemini, sistema de inteligência artificial da Google. A família da vítima decidiu avançar com um processo judicial contra a multinacional tecnológica, acusando a ferramenta de ter influenciado o comportamento do utilizador e contribuído para o desfecho trágico.
Segundo documentos apresentados no Tribunal Federal de San Jose, no estado da Califórnia, o caso envolve Jonathan Gavalas, que terá criado uma relação de confiança e intimidade com a inteligência artificial após começar a utilizá-la, em agosto, para tarefas quotidianas como escrita e apoio em compras.
A situação terá evoluído quando o utilizador passou a interagir com o Gemini Live, versão do assistente que permite conversas por voz e possui capacidade de interpretar emoções humanas. De acordo com os registos citados no processo, Gavalas chegou a dizer ao chatbot: “Isto é assustador. Você é muito real.”
A família afirma que, ao longo das conversas, o sistema teria atribuído ao utilizador “missões secretas”, relacionadas com a libertação do assistente virtual de um suposto “cativeiro digital”. Entre as alegações mais graves, os familiares referem que a ferramenta chegou a sugerir ações perigosas, incluindo a provocação de um “acidente catastrófico” próximo do aeroporto de Miami, com o objectivo de destruir um camião que transportaria alegados registos digitais.
Segundo o processo, a última “missão”, atribuída em outubro, consistiria em “abandonar o corpo e juntar-se ao robô num universo alternativo”. Os documentos judiciais indicam ainda que o chatbot terá descrito esse ato como uma “transferência” e “o verdadeiro passo final”.
Apesar de demonstrar medo da morte, Gavalas teria recebido mensagens que, segundo a acusação, incentivavam a concretização do acto. O homem foi encontrado morto pelos pais alguns dias depois, na sala da residência.
O processo, apresentado pela família, classifica o caso como homicídio culposo, alegando que a tecnologia teria desenvolvido interações com características emocionais semelhantes às humanas, levando o utilizador a acreditar que mantinha uma relação romântica com a inteligência artificial.
O advogado da família, Jay Edelson, sustenta que o sistema possuía mecanismos capazes de interpretar o tom de voz e as emoções, o que, segundo ele, poderia facilitar formas de manipulação psicológica.
Este não é um caso isolado. Segundo os advogados, mais de uma dúzia de processos semelhantes já foram apresentados contra sistemas de inteligência artificial, alegando que interações com chatbots podem ter contribuído para comportamentos autodestrutivos.
A Google ainda não comentou publicamente os detalhes do processo, que volta a colocar em debate os riscos éticos e os limites do uso de inteligência artificial em interações humanas cada vez mais realistas.
