Seu psicólogo é de carne e osso — mas pode estar usando IA na terapia: entenda os riscos

Seu psicólogo pode ser uma pessoa real, mas já está comum o uso de inteligência artificial (IA) como uma ferramenta complementar ou auxílio na terapia, seja por meio de chatbots que fazem atendimentos reflexivos ou plataformas que automatizam tarefas clínicas. No entanto, existe um consenso entre especialistas sobre os riscos dessa prática, especialmente quando a IA atua como substituta do terapeuta humano.

A IA é usada para apoiar em atividades como realização de exercícios cognitivo-comportamentais, análise de padrões de pensamento, geração automática de relatórios e sugestões, além de monitoramento e estimulação do paciente fora das sessões. Alguns chatbots terapêuticos, como o PsiVirtual, são supervisionados por psicólogos credenciados, garantindo acompanhamento e correção humana das intervenções, o que ajuda a tornar esse uso mais seguro. Essas tecnologias podem reduzir sintomas de depressão e ansiedade, principalmente no curto prazo, e ampliar o acesso à terapia para quem enfrenta barreiras de custo ou disponibilidade.

Por outro lado, perigos importantes são destacados:

Portanto, embora o psicólogo seja “de carne e osso”, a IA já está presente em muitos aspectos da terapia, mas essa presença exige cautela em relação aos riscos, que envolvem limitações técnicas, éticas, e de segurança.

Em suma, o uso ético da IA na psicoterapia recomenda que:

Sair da versão mobile