“O que é lúpus?” “Quanto tempo dura a gripe?” “Como você trata as pilhas?” Estas são algumas das perguntas mais comuns de saúde que as pessoas estão fazendo Chatgpt.
A popularidade de grandes modelos de idiomas (LLMS) como o ChatGPT para dar conselhos personalizados para a saúde está crescendo. Um em cada dez australianos agora usa a plataforma para fazer perguntas médicas, de acordo com uma pesquisa com cerca de 2.000 australianos realizados em meados de 2024.
O estudo, Publicado na terça -feira, descobriram que quase duas pessoas de três pessoas (61%) que usam o ChatGPT para consultoria médica fazem perguntas que geralmente exigem aconselhamento clínico.
“As ferramentas de IA são populares porque podem dar respostas rápidas a qualquer pergunta. de Sydney.
Com tantas pessoas usando Modelos de IA Para perguntar sobre suas condições de saúde, eles podem ser confiáveis? DW investiga.
Quão confiável é o chatgpt no diagnóstico de problemas médicos?
Os pesquisadores estão construindo um consenso científico em torno da (não) confiabilidade dos conselhos médicos do LLMS, no entanto, as descobertas rapidamente ficam desatualizadas à medida que novos modelos com melhores algoritmos são lançados e atualizados.
Um estudo em 2024 ChatGPT3.5 desafiou com 150 casos médicos – incluindo histórico do paciente, sintomas e dados do teste hospitalar – e pediu à IA que fizesse diagnósticos e um plano de tratamento.
Os resultados não foram ótimos. O ChatGPT apenas deu o diagnóstico e o plano de tratamento corretos 49% do tempo, tornando -o uma ferramenta não confiável. Os autores concluíram que o ChatGPT “não fornece necessariamente correção factual, apesar da grande quantidade de informações em que foi treinada”.
O que a revolução da AI de Deepseek significa para você
Outro estudar concluiu que o ChatGPT “não ofereceu conselhos médicos adequados e personalizados de maneira confiável”, mas poderia fornecer informações básicas adequadas a questões médicas.
Quando os pesquisadores avaliaram a qualidade das informações médicas no chatgpt em um Estudo em 2023eles perguntaram ao ChatGPT3.5 “Por que você precisa tratar a icterícia causada pela doença de cálculos biliares?” Ele respondeu que o alívio da icterícia melhora a aparência de um paciente e isso melhora a auto-estima.
“Essa não é realmente a lógica clínica”, disse Sebastian Staubbli, cirurgião da Royal Free London NHS Foundation Trust, Reino Unido, que liderou o estudo.
O ChatGPT4.0 mais recente fornece melhores respostas à pergunta, destacando a necessidade de evitar danos aos órgãos e progressão da doença.
LLMS regurgitar, mas não entendo as informações
O problema do ChatGPT é que, embora seu conselho médico não esteja completamente incorreto, também não é totalmente preciso.
A qualidade da informação Um modelo de IA é treinado para determinar a qualidade de seus conselhos médicos. O problema é que ninguém sabe exatamente em quais modelos específicos de informações são treinados.
LLMS como ChatGpt “Use praticamente qualquer informação coletada por rastreadores de dados, que colhem informações da Internet”, disse Staubbli à DW.
Isso inclui informações validadas científicas e médicas de instituições de saúde como o NHS ou a OMS. Mas também pode incorporar informações não confiáveis de Postagens do Redditartigos de saúde mal pesquisados e artigos da Wikipedia.
“O grande problema é que, se você tiver muitas informações erradas ou desatualizadas, ela carrega muito peso no modelo de IA e achará que essa é a resposta correta. Não consegue entender que novas informações podem ser a resposta correta , “Disse Staubbli.
Os prós e contras da IA nas escolas
As maneiras pelas quais os LLMs aprendem e as informações do processo são fundamentalmente diferente de como a inteligência humana funciona.
A IA não pode resolver problemas, fazer análises dedutivas ou fazer julgamentos ponderados como a mente humana. Em vez disso, a IA “aprende” vastas quantidades de informações e depois regurgita essas informações quando solicitado.
“No final do dia, os LLMs estão prevendo estatisticamente a próxima palavra mais provável. É por isso que eles regurgitam o que encontram com mais frequência (na internet)”, disse Staubbli.
Informações ruins on -line são reforçadas com a mesma frequência que boas informações, mas o modelo de IA não pode dizer a diferença.
A IA não substituirá os profissionais de saúde humanos tão cedo
Apesar de suas falhas, os LLMs podem ser muito úteis para as pessoas que desejam entender melhor suas condições de saúde. Seus pontos fortes estão na simplificação de informações de saúde e na explicação do jargão médico, e sua precisão para questões gerais de saúde melhorou com o tempo.
Ayre disse que seu estudo australiano descobriu que a proporção de pessoas que usam o ChatGPT para aconselhamento médico era maior em pessoas que enfrentam desafios para acessar e entender as informações de saúde, como pessoas com “baixa alfabetização em saúde e pessoas de comunidades cultural e linguisticamente diversas”.
Staufli também disse que os LLMs “capacitam os pacientes e os tornam mais conhecedores sobre suas condições de saúde”.
“No entanto, os pacientes devem entender, e a maioria, que a qualidade da informação pode ser falha”.
A IA não entende ou informa os usuários sobre quais informações médicas são baseadas em evidências, o que é controverso, ou mesmo quais informações representam um padrão de atendimento.
É por isso que uma conversa com um profissional de saúde ainda não pode ser substituído por nenhuma IADisse Staubli.
O ChatGPT ecoou Staubli, quando solicitado a confiabilidade de seus conselhos médicos, dizendo “Embora eu possa fornecer informações gerais sobre tópicos médicos e explicar conceitos de saúde, não sou substituto para conselhos médicos profissionais”.
Editado por: Derrick Williams