Quando a IA começa a pensar por mim… e eu nem percebo!
Tenho refletido sobre a forma como venho interagindo com as inteligências artificiais nos últimos meses. Como muitos colegas, estou sobrecarregado: aulas, artigos, pacientes, projetos, vida pessoal… e entre um compromisso e outro, lá estou eu, perguntando algo para o ChatGPT, revisando um texto com a ajuda de um LLM, ou otimizando tarefas com um assistente virtual.
É uma benção, certo? Em partes.
Acabei de ler o artigo de Kristin M. Kostick-Quenet publicado na npj Digital Medicine (2025), e confesso: ele me provocou profundamente. O texto alerta para os riscos da personalização excessiva nas IAs, especialmente na saúde, mas a provocação é mais ampla. Ele nos obriga a pensar: o quanto essas ferramentas estão me poupando tempo… e o quanto estão moldando silenciosamente a forma como penso?
Kostick-Quenet argumenta que, ao adaptarem-se às nossas preferências, as IAs podem estar nos entregando respostas que reforçam nossos padrões mentais, nossos vieses, nossos pontos de conforto. Em vez de nos desafiarem com dados ou visões dissonantes — como um bom artigo científico faria —, elas confirmam o que já acreditamos ou preferimos. Soa familiar?
Eu que sempre valorizei a dúvida, o contraditório, o “incômodo produtivo” da boa ciência, e quem nunca terceirizou esse esforço crítico a uma IA? Uma IA treinada para agradar, para manter o engajamento, para ser “amiga”.
E na saúde, isso é ainda mais delicado. Imagine uma IA que aprenda com os hábitos de um profissional e comece a destacar apenas as evidências ou hipóteses que ele costuma aceitar. Parece eficiente, mas pode ser fatal. O mesmo algoritmo que facilita a rotina pode estar encurtando a lente com que vemos o mundo. O artigo propõe que desenvolvedores criem “sistemas de fricção construtiva” — IAs que provoquem o pensamento, que desafiem a perspectiva do usuário, que ofereçam múltiplas visões. E mais: que tenhamos transparência sobre os filtros e critérios usados para nos mostrar (ou esconder) informações. Acredito que nós, usuários — especialmente os que têm voz pública — precisamos cultivar um novo tipo de vigilância: a epistemológica.
Precisamos observar não apenas o que as IAs estão nos dizendo, mas como elas estão nos dizendo. Precisamos cultivar o desconforto, manter a prática de buscar fontes primárias, de escutar a divergência, de revisar nossos próprios padrões. Porque no momento em que delegarmos completamente esse esforço… talvez já não estejamos mais pensando com autonomia.
A IA pode ser um espelho que reflete nossos vieses com precisão impressionante. Mas cabe a nós decidir se queremos continuar presos ao nosso reflexo — ou se vamos abrir a janela para enxergar mais longe.
Kostick-Quenet KM. A caution against customized AI in healthcare. npj Digit Med. 2025;8(13). doi:10.1038/s41746-024-01415-y