A inteligência artificial (IA) tem vindo a transformar o panorama dos cuidados de saúde, desde o apoio ao diagnóstico clínico até à gestão hospitalar, passando pela monitorização remota de doentes, previsão de surtos epidemiológicos, triagem automatizada, personalização de tratamentos, análise de imagens médicas e otimização de processos logísticos. Contudo, a implementação de sistemas de IA em ambientes clínicos não é uma mera inovação tecnológica, é uma transformação estrutural que requer uma nova forma de trabalho em equipa. Para que a IA produza ganhos operacionais efetivos, é imperativo que os profissionais de saúde compreendam os fundamentos e as limitações dos sistemas algorítmicos, assim como, os especialistas técnicos devem assimilar os contextos éticos, clínicos e humanos em que estes sistemas operam.
A integração eficaz da IA nos cuidados de saúde exige a confluência de competências de distintas áreas do saber: a) os profissionais de saúde colaboram com o conhecimento clínico essencial para o desenho, validação e uso de algoritmos preditivos e de apoio à decisão; os cientistas de dados desenvolvem e treinam modelos estatísticos e de machine learning que implicam uma validação contínua com base em dados clínicos reais; os engenheiros informáticos garantem a infraestrutura, a interoperabilidade e a performance dos sistemas; os especialistas em cibersegurança asseguram a confidencialidade, a integridade e a disponibilidade da informação sensível; e, os profissionais da área do direito garantem que o desenvolvimento, a aquisição e o uso de tecnologias baseadas em IA estejam alinhados com os princípios da legalidade, da proporcionalidade e da transparência, assegurando simultaneamente os direitos dos utentes/doentes e a integridade institucional.
A falta de integração harmoniosa destes domínios pode resultar em falhas críticas, como decisões clínicas enviesadas, violações de dados sensíveis, ou modelos preditivos com confiabilidade e fidelidade comprometidas devido à reduzida qualidade dos dados.
Um dos principais obstáculos à colaboração efetiva entre profissionais de saúde e especialistas em IA reside na ausência de uma linguagem comum. A literacia digital dos profissionais de saúde e a literacia clínica dos técnicos e dos juristas devem ser fomentadas através de programas formativos interdisciplinares. Não se trata de transformar os profissionais de saúde das diferentes áreas em programadores, mas de dotá-los da capacidade crítica para interpretar modelos algorítmicos, interpretar e debater com rigor as métricas que avaliam o desempenho dos modelos e participar na sua validação clínica. Da mesma forma, engenheiros e cientistas de dados devem ser capazes de compreender o valor e a variabilidade do raciocínio clínico das diferentes áreas e a complexidade dos contextos da saúde/doença. Por estes motivos, necessitamos de uma comunicação e literacia mútua.
A implementação bem-sucedida da IA em saúde não se reduz à aquisição de tecnologias inovadoras, mas requer, sobretudo, uma mudança de paradigma na forma como se constituem e operam as equipas em ambientes clínicos. A integração de perfis profissionais distintos, com competências complementares e objetivos alinhados, é essencial para garantir que os benefícios da IA se concretizem em ganhos reais de saúde pública, qualidade na assistência individual, mantendo o rigor ético, deontológico e o cumprimento da lei.
A liderança institucional e a gestão hospitalar desempenham um papel central e inalienável na promoção da formação contínua dos profissionais envolvidos na implementação da IA em contexto clínico. Cabe-lhes não apenas garantir os recursos necessários, mas sobretudo criar uma cultura organizacional que valorize a literacia digital, a capacitação ética e a integração interdisciplinar. A ausência de investimento estratégico na qualificação das equipas, compromete não só a eficácia dos sistemas de IA, mas também a segurança dos utentes/doentes, a proteção dos dados sensíveis e a confiança nas instituições de saúde.
Em síntese, a adoção crescente de sistemas baseados em IA nas instituições de saúde impõe novos desafios organizacionais, éticos, técnicos e juridicos. A operacionalização segura, eficiente e ética desses sistemas exige a colaboração estreita entre profissionais de saúde e especialistas de áreas tecnológicas. A eficácia clínica e a proteção de dados sensíveis estão intrinsecamente ligadas à capacidade de trabalho colaborativo e atuação integrada entre estas disciplinas, exigindo uma mudança cultural e estrutural na gestão e formação das equipas multidisciplinares em saúde. Só desta forma conseguiremos manter a autonomia de inteligências analógicas, a comandar e controlar inteligências digitais.
Num contexto onde os algoritmos podem salvar vidas, a colaboração transdisciplinar não é uma opção, é uma obrigação ética.
PS: Este artigo foi elaborado por Ana Paula Nunes, contou com uma revisão técnica com o apoio de ferramentas de inteligência artificial e posterior validação e correção final do autor.
Comentários