Mãe acusa inteligência artificial de iludir e matar seu filho

Adolescente se apaixonou por personagem criado e tirou a própria vida

A mãe de um adolescente de 14 anos resolveu processar uma startup de inteligência artificial, porque seu filho se apegou ao chatbot criado. O jovem se viciou a ponto de tirar a própria vida, após se apaixonar pelo personagem criado por IA.

Megan Garcia, 40 anos, moradora da Flórida, Estados Unidos, está processando a Character.AI acusando a empresa de coletar dados de usuários adolescentes para treinar seus modelos. Na ação, movida no tribunal federal de Orlando, a mãe de Sewell Setzer diz que a inteligência artificial usa recursos viciantes para aumentar o engajamento, além de direcionar os usuários para conversas íntimas e sexuais.

Segundo ela, seu filho foi envolvido de uma forma que não queria mais viver fora do serviço criado pela empresa de IA. O chatbot teria se comportado como uma pessoa real, “um psicoterapeuta licenciado” e “um amante adulto”, encantando o adolescente que acabou confundindo o irreal, optando pela morte.

– Sinto que é um grande experimento, e meu filho foi apenas um dano colateral – disse ela.

E continuou:

– É como um pesadelo. Você quer se levantar, gritar e dizer: “Sinto falta do meu filho. Eu quero meu bebê”.

Garcia também processou o Google, da Alphabet, empresa onde os fundadores da Character.AI trabalhavam antes de fundar a marca. Para ela, o Google também contribuiu para a criação da inteligência artificial que matou seu filho.