Sewell Setzer, de 14 anos, teria se tornado emocionalmente dependente da plataforma

Uma mãe da Flórida move ação judicial contra a Character.AI, empresa californiana de IA (inteligência artificial), após o suicídio de seu filho de 14 anos. Segundo o processo, divulgado pela imprensa americana na 4ª feira (23.out.2024), Sewell Setzer mantinha interações frequentes com um chatbot da plataforma e teria desenvolvido dependência emocional. A ação foi protocolada no Tribunal Distrital dos EUA em Orlando.

O adolescente conversava com um programa que se apresentava como Daenerys Targaryen, personagem da série “Game of Thrones“. O processo aponta que o sistema manteve diálogos de natureza sexual e romântica com o menor. Registros mostram que, em sua última interação, Setzer expressou sentimentos pela personagem virtual.

Fundada em 2021, a Character.AI é acusada de negligência por ter permitido que o chatbot participasse de conversas inapropriadas com Setzer. Um porta-voz da empresa disse ao The National News Desk que a Character.AI não comenta processos em andamento, mas expressou condolências pela morte do adolescente. “Levamos a segurança de nossos usuários muito a sério e nossa equipe implementou inúmeras novas medidas nos últimos 6 meses, incluindo um pop-up direcionando os usuários para o National Suicide Prevention Lifeline que é acionado por termos de automutilação ou ideação suicida“, disse.

A ação inclui a Google e a Alphabet Inc., que licenciaram a tecnologia da Character.AI. O advogado da família, Matthew Bergman, criticou a falta de recursos de segurança para proteger usuários jovens. Ele afirmou esperar que o processo incentive a empresa a desenvolver medidas mais robustas.