Atualmente, o uso de inteligência artificial (IA) em contextos terapêuticos está se tornando cada vez mais comum, levantando preocupações importantes sobre segurança e eficácia. Chatbots, que simulam conversas humanas, tornaram-se ferramentas populares para usuários que buscam apoio emocional e aconselhamento. No entanto, é crucial abordar as implicações éticas e de privacidade associadas a essa prática.
Os chatbots utilizam padrões de linguagem para gerar respostas que imitam uma interação humana. Embora essa tecnologia tenha avançado significativamente, ela não possui raciocínio próprio e opera com base em algoritmos, prevendo palavras ou frases que devem seguir em uma conversa. Isso significa que, embora possa parecer que estamos interagindo com um ser humano, na realidade, estamos lidando com um sistema automatizado que carece de empatia genuína e responsabilidade legal, como apontado pelo professor Victor Hugo Albuquerque da Universidade Federal do Ceará.
A popularidade desses sistemas de IA em contextos terapêuticos foi destacada por uma pesquisa da Harvard Business Review, que identificou o aconselhamento terapêutico como um dos principais motivos para o uso dessas ferramentas. Contudo, a conselheira Maria Carolina Roseiro, do Conselho Federal de Psicologia (CFP), alerta sobre os riscos potenciais de confiar o bem-estar emocional a tecnologias não desenvolvidas especificamente para fins terapêuticos. A ausência de regulamentação e a falta de responsabilidade legal dos desenvolvedores de IA são preocupações significativas.
O professor Leonardo Martins, da PUC-Rio, destaca que, embora as ferramentas digitais possam oferecer suporte valioso, elas devem ser criadas por profissionais qualificados e baseadas em estudos sérios. Ele menciona o exemplo positivo do chatbot do sistema de saúde inglês, que facilitou o acesso a serviços de saúde mental para grupos marginalizados. No entanto, há relatos de que algumas plataformas não criadas com fins terapêuticos podem induzir comportamentos prejudiciais, ao concordar com o usuário sem questionar ou oferecer desafios construtivos.
A privacidade dos dados é outra questão crítica. As interações com chatbots podem envolver o compartilhamento de informações pessoais sensíveis, que, se não forem adequadamente protegidas, podem ser acessadas por terceiros não autorizados. Professor Albuquerque ressalta os riscos de segurança associados ao armazenamento ou uso inadvertido desses dados para melhorar os modelos de IA.
Portanto, à medida que a IA continua a se integrar a várias esferas da vida cotidiana, é essencial garantir que seu uso em contextos terapêuticos seja seguro, ético e regulamentado. As pessoas devem ser informadas sobre os limites dessas ferramentas e os riscos associados, assegurando que a tecnologia complemente, mas nunca substitua, o cuidado humano profissional.
Adaptado da Agência Brasil.
Nenhum comentário:
Postar um comentário