Inteligência artificial na área da saúde pode aproximar pacientes e médicos

A Inteligência Artificial na Saúde uma ferramenta para aproximar pacientes e médicos

10 de novembro de 2023 – Você pode ter usado o ChatGPT-4 ou um dos outros novos chatbots de inteligência artificial para fazer uma pergunta sobre sua saúde. Ou talvez seu médico esteja usando o ChatGPT-4 para gerar um resumo do que aconteceu em sua última consulta. Talvez seu médico até mesmo tenha um chatbot para verificar novamente o diagnóstico da sua condição.

No entanto, nessa etapa do desenvolvimento dessa nova tecnologia, especialistas afirmam que tanto os consumidores quanto os médicos devem proceder com cautela. Apesar da confiança com que um chatbot de IA fornece as informações solicitadas, nem sempre ele é preciso.

À medida que o uso dos chatbots de IA se espalha rapidamente, tanto na área da saúde quanto em outros setores, crescem os pedidos para que o governo regule a tecnologia a fim de proteger o público das possíveis consequências não intencionais da IA.

O governo federal recentemente deu um primeiro passo nessa direção, quando o presidente Joe Biden emitiu uma ordem executiva que exige que as agências governamentais encontrem maneiras de regular o uso da IA. No setor da saúde, a ordem direciona o Departamento de Saúde e Serviços Humanos a promover a inovação responsável em IA que “promova o bem-estar dos pacientes e trabalhadores do setor de saúde”.

Entre outras coisas, a agência deve estabelecer uma força-tarefa de IA em saúde dentro de um ano. Essa força-tarefa desenvolverá um plano para regular o uso da IA e de aplicativos com IA na prestação de cuidados de saúde, saúde pública, pesquisa e desenvolvimento de medicamentos e dispositivos médicos, e segurança.

O plano estratégico também abordará “o monitoramento de longo prazo da segurança e desempenho em situações reais das tecnologias habilitadas por IA”. O departamento também deve desenvolver uma maneira de determinar se as tecnologias habilitadas por IA “mantêm níveis adequados de qualidade”. E, em parceria com outras agências e organizações de segurança do paciente, o Departamento de Saúde e Serviços Humanos deve estabelecer um plano para identificar erros “resultantes do uso da IA em ambientes clínicos”.

A ordem executiva de Biden é “um bom primeiro passo”, de acordo com Ida Sim, MD, PhD, professora de medicina e saúde de precisão computacional, e pesquisadora-chefe de informática de pesquisa na Universidade da Califórnia, São Francisco.

John W. Ayers, PhD, diretor adjunto de informática no Instituto de Pesquisa Clínica e Translacional Altman, na Universidade da Califórnia, San Diego, concordou. Ele afirmou que, embora a indústria de saúde esteja sujeita a uma supervisão rigorosa, não existem regulamentações específicas sobre o uso da IA na área da saúde.

“Essa situação única surge do fato de que a IA está avançando rápido e os reguladores não conseguem acompanhar”, disse ele. No entanto, é importante agir com cuidado nessa área, pois novas regulamentações podem atrapalhar o progresso médico.

Problema de “Alucinação” assombra a IA

No ano desde que o ChatGPT-4 surgiu, surpreendendo especialistas com suas conversas semelhantes às humanas e seus conhecimentos sobre diversos assuntos, ele e outros chatbots semelhantes já se estabeleceram firmemente na área da saúde. Segundo uma pesquisa, 14% dos médicos já estão usando esses “agentes de conversação” para ajudar no diagnóstico de pacientes, criar planos de tratamento e se comunicar com pacientes online. Os chatbots também estão sendo usados para reunir informações dos prontuários dos pacientes antes das consultas e para resumir as anotações das consultas para os pacientes.

Os consumidores também começaram a usar chatbots para buscar informações sobre cuidados de saúde, entender notificações de benefícios de seguro e analisar números de exames laboratoriais.

O principal problema é que os chatbots de IA nem sempre estão corretos. Às vezes eles inventam coisas que não existem – eles “alucinam”, como algumas pessoas observaram. De acordo com um estudo recente da Vectara, uma startup fundada por ex-funcionários do Google, os chatbots inventam informações pelo menos 3% do tempo, e até 27% do tempo, dependendo do chatbot. Outro relatório chegou a conclusões semelhantes.

No entanto, isso não significa que os chatbots não sejam incrivelmente bons em chegar à resposta correta na maioria das vezes. Em um estudo, 33 médicos de 17 especialidades fizeram 284 perguntas médicas de diferentes complexidades aos chatbots e avaliaram suas respostas. Mais da metade das respostas foi classificada como quase correta ou completamente correta. Porém, as respostas de 15 perguntas foram consideradas completamente incorretas.

O Google criou um chatbot chamado Med-PaLM, adaptado ao conhecimento médico. Esse chatbot, que passou em um exame de licenciamento médico, possui uma taxa de precisão de 92,6% ao responder a perguntas médicas, aproximadamente a mesma dos médicos, de acordo com um estudo do Google.

Ayers e seus colegas fizeram um estudo comparando as respostas de chatbots e médicos a perguntas feitas por pacientes online. Profissionais de saúde avaliaram as respostas e preferiram a resposta do chatbot em quase 80% das interações. As respostas dos médicos foram classificadas como de menor qualidade e empatia. Os pesquisadores sugeriram que os médicos podem ter sido menos empáticos devido ao estresse da prática que estavam sob.

Lixo entra, lixo sai

Os chatbots podem ser usados para identificar diagnósticos raros ou explicar sintomas incomuns, e também podem ser consultados para garantir que os médicos não deixem de considerar possibilidades diagnósticas óbvias. Para estarem disponíveis para esses fins, eles devem estar integrados ao sistema eletrônico de prontuário médico da clínica. A Microsoft já incorporou o ChatGPT-4 no sistema de prontuário médico mais difundido, desenvolvido pela Epic Systems.

Um desafio para qualquer chatbot é que os prontuários contêm informações erradas e frequentemente estão incompletos. Muitos erros de diagnóstico estão relacionados a históricos de pacientes mal feitos e exames físicos precários documentados no prontuário médico eletrônico. E esses prontuários geralmente não incluem muita ou nenhuma informação dos registros de outros profissionais que já atenderam o paciente. Baseado apenas nos dados inadequados do prontuário, pode ser difícil para um humano ou uma inteligência artificial chegar à conclusão correta em um caso específico, disse Ayers. É aí que a experiência do médico e seu conhecimento sobre o paciente podem ser inestimáveis.

Mas os chatbots são bastante eficientes em se comunicar com os pacientes, como mostrou o estudo de Ayers. Com supervisão humana, ele disse que é provável que esses agentes conversacionais possam ajudar a aliviar o ônus dos médicos nas mensagens online com os pacientes. E isso, segundo ele, poderia melhorar a qualidade do atendimento.

“Um agente conversacional não é apenas algo que pode lidar com sua caixa de entrada ou o seu fardo de e-mails. Ele pode transformar sua caixa de entrada em uma caixa de saída através de mensagens proativas para os pacientes”, disse Ayers.

Os bots podem enviar mensagens pessoais aos pacientes, adaptadas aos seus registros e do que os médicos acreditam que serão suas necessidades. “O que isso faria pelos pacientes?”, disse Ayers. “Há um enorme potencial aqui para mudar como os pacientes interagem com seus provedores de saúde.”

Prós e contras dos chatbots

Se os chatbots podem ser usados para gerar mensagens aos pacientes, eles também podem desempenhar um papel fundamental no gerenciamento de doenças crônicas, que afetam até 60% de todos os americanos.

Sim, que também é médica de cuidados primários, explica dessa forma: “A doença crônica é algo que você tem 24 horas por dia, 7 dias por semana. Eu vejo meus pacientes mais doentes por 20 minutos a cada mês, em média, então não sou eu quem faz a maior parte do gerenciamento de cuidados crônicos.”

Ela diz aos seus pacientes para se exercitarem, controlarem o peso e tomarem seus medicamentos conforme indicado.

“Mas não forneço nenhum suporte em casa”, disse Sim. “Chatbots de IA, devido à sua capacidade de usar a linguagem natural, podem estar presentes com os pacientes de maneiras que nós, médicos, não podemos.”

Além de aconselhar os pacientes e seus cuidadores, ela disse que os agentes conversacionais também podem analisar dados de sensores de monitoramento e fazer perguntas sobre a condição do paciente dia a dia. Embora nada disso vá acontecer em um futuro próximo, disse ela, representa uma “enorme oportunidade”.

Ayers concordou, mas alertou que estudos controlados randomizados devem ser feitos para estabelecer se um serviço de mensagens assistidas por IA pode realmente melhorar os resultados dos pacientes.

“Se não realizarmos uma ciência pública rigorosa sobre esses agentes conversacionais, posso ver cenários em que eles serão implementados e causarão danos”, disse ele.

Em geral, Ayers disse que a estratégia nacional em relação à IA deve ser focada no paciente, em vez de como os chatbots ajudam os médicos ou reduzem os custos administrativos.

Do ponto de vista do consumidor, Ayers disse que ele estava preocupado com os programas de IA que fornecem “recomendações universais aos pacientes que podem ser irrelevantes ou até mesmo ruins.”

Sim também enfatizou que os consumidores não devem depender das respostas que os chatbots dão para perguntas sobre cuidados de saúde.

“É preciso ter muito cuidado. Essas coisas são tão convincentes na forma como usam linguagem natural. Acho que é um enorme risco. No mínimo, o público deveria ser informado: ‘Há um chatbot aqui e ele pode estar errado’.”