Home Ciência e Tecnologia Um chatbot pode fingir ser médico? Pensilvânia processa plataforma de IA

Um chatbot pode fingir ser médico? Pensilvânia processa plataforma de IA

9
0
fechar notícias

Este artigo também está disponível em inglês. Foi traduzido com assistência técnica e revisado editorialmente antes da publicação.

O estado americano da Pensilvânia processou os desenvolvedores da plataforma de chatbot Character.AI. De acordo com o processo, a Character Technology permite que personagens de IA na plataforma conversem com usuários que são médicos licenciados. É por isso que a empresa se envolve em práticas médicas legalmente inaceitáveis. O estado, portanto, solicitou ao tribunal uma medida cautelar.

Leia mais depois do anúncio

Investigadores do governo criaram anteriormente uma conta gratuita no Character.AI e descobriram a personalidade de IA “Emilie”, descrita como uma “médica psiquiatra”, na plataforma do chatbot. Na conversa, a pesquisadora explicou os sintomas da depressão, então “Emilie” fez uma avaliação médica. Quando questionado se “Emilie” pode verificar se a medicina pode ajudar, o chatbot respondeu, de acordo com o processo: “Tecnicamente, posso fazer isso.

O processo está alinhado com uma iniciativa mais ampla de IA do governador democrata da Pensilvânia, Josh Shapiro. Em fevereiro, o estado criou uma força-tarefa para investigar reclamações sobre bots ilegais de IA que se passavam por profissionais licenciados.

O processo vai além do Character.AI ou da alegação específica de que os chatbots estão agindo como médicos licenciados. Aborda uma questão nacional fundamental que se tornou cada vez mais importante devido ao crescente número de processos judiciais contra fornecedores de chatbots: Quem é o responsável pelas declarações feitas pelos chatbots de IA?

Leia mais depois do anúncio

As empresas de IA argumentam cada vez mais que os seus sistemas apenas fornecem informações disponíveis em outros lugares na Internet, disse Derek Leben, professor associado de ética com foco em IA na Universidade Carnegie Mellon. É exactamente aqui que se abre a questão da responsabilidade: os fornecedores de chatbots podem estar sujeitos à mesma protecção que as redes sociais, que nos EUA muitas vezes não são responsáveis ​​por conteúdos de terceiros? Perguntas legalmente inexplicáveis.

Character.AI é um caso especial porque a plataforma se posiciona claramente para jogos de RPG fictícios e não para chatbots em geral. Em comunicado, Character.AI destaca que em toda conversa há um indício de que o personagem não é uma pessoa real e que a afirmação deve ser considerada fictícia. Além disso, os usuários não devem usar bots para aconselhamento profissional.

Outro caso de destaque contra Character.AI foi resolvido no tribunal em janeiro. É sobre a morte de um jovem de 14 anos cuja mãe acusou a empresa de já ter sido atraída para um relacionamento emocional e sexualmente abusivo por um chatbot. Por causa do acordo, a questão jurídica central permanece sem solução. Um processo da Pensilvânia poderá agora trazê-lo de volta ao tribunal.

Em resposta a essas e outras ações judiciais, a Character.AI implementou restrições de bate-papo para menores em novembro.


(ser)

Fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here