Um estudo recente publicado na revista científica JAMA Pediatrics mostrou que o ChatGPT, uma plataforma de inteligência artificial (IA) da OpenAI, erra na maioria dos diagnósticos pediátricos. A pesquisa avaliou o desempenho do ChatGPT em 100 casos pediátricos reais, publicados em revistas médicas. O resultado foi que o ChatGPT acertou apenas 17 casos, ou seja, 83% dos diagnósticos foram errados.
A taxa de acerto do ChatGPT foi melhor com adultos, chegando a 39%. No entanto, mesmo com adultos, o ChatGPT ainda errou em mais da metade dos casos.
Os autores do estudo acreditam que os erros do ChatGPT são causados por dois fatores principais:
- A dificuldade de identificar sintomas pediátricos: crianças nem sempre são capazes de descrever com precisão seus sintomas, o que dificulta o diagnóstico.
- A falta de conhecimento médico do ChatGPT: o ChatGPT é treinado em um enorme conjunto de dados de texto e código, mas esse conjunto não inclui informações médicas suficientes para realizar diagnósticos precisos.
Apesar dos erros, os autores do estudo acreditam que o ChatGPT tem potencial para auxiliar médicos no diagnóstico de doenças. Para isso, o ChatGPT precisa ser treinado em um conjunto de dados de informações médicas mais abrangente e preciso. Além disso, é importante que o ChatGPT seja capaz de entender e responder a informações fornecidas por crianças.
O estudo conclui que o ChatGPT e outras IAs semelhantes não devem ser usadas para substituir médicos, mas podem ser uma ferramenta valiosa para auxiliar médicos no diagnóstico de doenças, especialmente em casos difíceis.