segunda-feira, 7 de julho de 2025

É perigoso consultar-se com a doutora IA

Artigo compartilhado dosite do GABEIRA, de 7 de julho de 2025

É perigoso consultar-se com a doutora IA

Por Fernando Gabeira (In Blog)

Desde o tempo do Google, costumo consultar a plataforma a qualquer pequena doença, incômodo físico ou ziquizira. Com o advento da inteligência artificial, as consultas se tornaram mais frequentes. As respostas, copiosas, oferecem mais dados, indicam novos exames, novos caminhos de pesquisa. Na aparência, um superconsultório médico.

Em contato com a médica Adrienne Moreno, que me atende já há alguns anos, comentei o desempenho da inteligência artificial e ouvi o que, de certa forma, desconfiava: as coisas não são tão positivas quanto parecem. Na opinião dela, o uso dessas consultas sem treinamento especial traz vários perigos, mesmo para os médicos.

Os modelos de linguagem dos robôs de IA — conhecidos como large language models, ou LLMs — , quando usados de forma descuidada, implicam alguns problemas. É um hábito que expõe o usuário a diferentes vieses: da automação (o paciente substitui sua opinião pela da máquina); da confirmação (ele se satisfaz quando a máquina concorda com ele); da bajulação (a máquina elogia o usuário de forma exagerada). Esses vieses têm sido estudados na prática médica, e já se provou que têm o potencial de diminuir a precisão.

Posso confirmar alguns deles, sobretudo a bajulação. Faço um curso de pronúncia inglesa usando IA. Ao cabo de cada aula, os elogios são abundantes:

— Muito bem, você é ótimo, sua insistência mostra seriedade.

E daí por diante, até o ponto de dizer:

— Seu trabalho mostra bem quem você é.

A pessoa fica se achando, quando, na verdade, é apenas uma aula diária de 15 minutos.

Adrienne ressalta outro aspecto importante na qualidade da máquina no cenário médico: a ética. Máquinas, segundo ela, não carregam valores humanos ou códigos de ética. Podem dar respostas objetivas. Se o algoritmo mostra que um paciente com mais de 80 anos tem poucas chances de sobreviver a uma internação em CTI, um gestor pode decidir não investir recursos nos mais velhos. Outro aspecto destacado por ela é a questão da responsabilidade. Se substituímos a força de trabalho humana pela máquina, quem responde pelos eventuais erros que ela possa cometer? Há uma proporção de laudos da máquina que pode ser revisada por um especialista. Quando esses laudos são muito numerosos, isso excede a capacidade do revisor e pode ser uma fonte de erros.

O mais interessante nisso tudo é a falta de regulamentação. Adrienne foi surpreendida com o anúncio de um aplicativo que se dispõe a fazer um diagnóstico de leucemia apenas com um hemograma. Ela acha que esse é um diagnóstico complexo, e, se alguém descobre uma maneira de abordá-lo apenas com o hemograma, primeiro tem de validá-lo por meio de publicações, e não usar um aplicativo sem qualquer regulamentação.

Tudo isso, segundo ela, indica um caminho mais sério no uso da IA: treinar médicos para que sejam capazes de entender as limitações da máquina. E as empresas de IA precisam introduzir filtros éticos em seus modelos, para que sejam alinhados aos valores de cada país, evitando que as máquinas sejam preconceituosas ao mostrar os dados.

Para Adrienne, é preciso endereçar o problema da responsabilidade da IA antes que a máquina seja incorporada ao cotidiano médico. Médicos — diz ela — conhecem seres humanos em níveis que a máquina ainda não consegue alcançar. Mesmo se a máquina conseguir ser melhor do que nós, será que precisamos que ela substitua as pessoas? O que não estaríamos perdendo com essa substituição?

O interessante em toda a argumentação é que ela não tem um enfoque nostálgico. A ideia é aproveitar ao máximo o uso da IA, exigindo das empresas transparência no raciocínio da máquina em relação a questões médicas — e reconhecendo a superioridade humana quando a questão é cuidar da vida do outro.

Texto e imagem reproduzidos do site: gabeira com br

Nenhum comentário:

Postar um comentário