Inteligência Artificial. Risco para a saúde humana e divisão social

por Carla Quirino - RTP
Carla Quirino - RTP

A Inteligência Artificial representa riscos associados à medicina e à saúde, sublinham investigadores de saúde pública. Identificam "o potencial de erros da IA causarem danos ao paciente, problemas com privacidade e segurança de dados". Alertam também para a possibilidade de provocar maiores "desigualdades sociais e cuidados de saúde". E exaltam a necessidade de regulamentação.

Os autores do artigo publicado no BMJ Journals, divulgado pela edição online do jornal britânico The Guardian, argumentam que, “embora a inteligência artificial (IA) ofereça soluções promissoras na área da saúde", também "representa uma série de ameaças à saúde e ao bem-estar humano”. Lembram que a diversidade de contextos “sociais, políticos, económicos” tem impacto na segurança neste domínio em particular.

Se a IA for mal aplicada, os autores alertam que será uma ameaça. E identificam alguns dos riscos: “O aumento das oportunidades de controlo e manipulação de pessoas; desumanização da capacidade dos instrumentos de saúde e o trabalho humano será tornado cada vez mais obsoleto”.

Esses fatores, “quando combinados com a capacidade de distorcer ou deturpar a realidade com falsificações profundas, tornam os sistemas de informação orientados por IA vulneráveis, minando ainda mais a democracia. Podem, por isso, causar uma quebra geral na confiança ou gerar divisão e conflito social, com os consequentes impactos na saúde pública”, afirmam.

Ao examinarem a inteligência geral artificial (AGI) de autoaperfeiçoamento e como esse caminho pode representar uma ameaça existencial para a própria humanidade, os especialistas deixam claro: “Agora estamos a tentar criar máquinas que são muito mais inteligentes e poderosas do que nós. O potencial dessas máquinas para aplicar essa inteligência e poder, deliberadamente ou não e de maneiras que possam prejudicar ou subjugar os humanos, é real e deve ser considerado”.

“Com o crescimento exponencial em pesquisa e desenvolvimento de IA, a janela de oportunidade para evitar danos sérios e potencialmente existenciais está a fechar-se”, acrescentam.

Em cima da mesa está também a discussão sobre a necessidade de regulamentação, incluindo a proibição de certos tipos e aplicações de IA.

É necessária uma regulamentação efetiva do desenvolvimento e uso da inteligência artificial para evitar danos”, alertam os especialistas.

E sublinham que “até tal regulamentação esteja em vigor deve ser instituída uma moratória sobre o desenvolvimento da inteligência artificial geral de autoaperfeiçoamento”.
Exemplo do oxímetro
Os riscos relacionados com a medicina e os cuidados de saúde podem incluir "o potencial de erros de IA" que prejudicarão os pacientes.

Um dos exemplos de danos à saúde citados pelos profissionais do Reino Unido, Estados Unidos, Austrália, Costa Rica e Malásia que assinam o ensaio envolveu o uso de oxímetros de pulso controlados por IA.

As leituras de oxigénio num simples aparelho conhecido por oxímetro podem induzir em erro a identificação da patologia.

Um oxímetro de pulso acionado por IA superestimou os níveis de oxigénio no sangue em pacientes com pele mais escura, resultando no subtratamento da hipoxia.

A própria ONU, no Twitter, partilha um excerto do trabalho dos investigadores, ampliando a palavra de alerta sobre a IA.


“O que pode e deve fazer a comunidade médica e de saúde pública? Talvez o mais importante seja simplesmente alertar sobre os riscos e ameaças representados pela IA e argumentar que velocidade e seriedade são essenciais se quisermos evitar as várias consequências prejudiciais e potencialmente catastróficas do desenvolvimento de tecnologias aprimoradas por IA e usado sem proteção e regulamentação adequadas”.

Os investigadores partilham uma preocupação mais ampla. Argumenta-se que, se a IA pode aliviar o "trabalho repetitivo, perigoso e desagradável", é também conhecido que o desemprego desencadeado pelo uso de máquinas "está fortemente associado a resultados e comportamentos adversos à saúde”.

O grupo de trabalho, associado a instituições como a British Heart Foundation, Royal College of GP e Full Fact, produziu uma carta aberta com todas estas recomendações, entretanto enviada ao Governo do Reino Unido. Pedem instrumentos jurídicos para melhor proteção dos sistemas de saúde.
Tópicos
PUB