Os autores do artigo publicado no BMJ Journals, divulgado pela edição online do jornal britânico The Guardian, argumentam que, “embora a inteligência artificial (IA) ofereça soluções promissoras na área da saúde", também "representa uma série de ameaças à saúde e ao bem-estar humano”. Lembram que a diversidade de contextos “sociais, políticos, económicos” tem impacto na segurança neste domínio em particular.
Se a IA for mal aplicada, os autores alertam que será uma ameaça. E identificam alguns dos riscos: “O aumento das oportunidades de controlo e manipulação de pessoas; desumanização da capacidade dos instrumentos de saúde e o trabalho humano será tornado cada vez mais obsoleto”.
Esses fatores, “quando combinados com a capacidade de distorcer ou deturpar a realidade com falsificações profundas, tornam os sistemas de informação orientados por IA vulneráveis, minando ainda mais a democracia. Podem, por isso, causar uma quebra geral na confiança ou gerar divisão e conflito social, com os consequentes impactos na saúde pública”, afirmam.
Ao examinarem a inteligência geral artificial (AGI) de autoaperfeiçoamento e como esse caminho pode representar uma ameaça existencial para a própria humanidade, os especialistas deixam claro: “Agora estamos a tentar criar máquinas que são muito mais inteligentes e poderosas do que nós. O potencial dessas máquinas para aplicar essa inteligência e poder, deliberadamente ou não e de maneiras que possam prejudicar ou subjugar os humanos, é real e deve ser considerado”.
“Com o crescimento exponencial em pesquisa e desenvolvimento de IA, a janela de oportunidade para evitar danos sérios e potencialmente existenciais está a fechar-se”, acrescentam.
Em cima da mesa está também a discussão sobre a necessidade de regulamentação, incluindo a proibição de certos tipos e aplicações de IA.
“É necessária uma regulamentação efetiva do desenvolvimento e uso da inteligência artificial para evitar danos”, alertam os especialistas.
E sublinham que “até tal regulamentação esteja em vigor deve ser instituída uma moratória sobre o desenvolvimento da inteligência artificial geral de autoaperfeiçoamento”.
Exemplo do oxímetro
Os riscos relacionados com a medicina e os cuidados de saúde podem incluir "o potencial de erros de IA" que prejudicarão os pacientes.
Um dos exemplos de danos à saúde citados pelos profissionais do Reino Unido, Estados Unidos, Austrália, Costa Rica e Malásia que assinam o ensaio envolveu o uso de oxímetros de pulso controlados por IA.
As leituras de oxigénio num simples aparelho conhecido por oxímetro podem induzir em erro a identificação da patologia.
Um oxímetro de pulso acionado por IA superestimou os níveis de oxigénio no sangue em pacientes com pele mais escura, resultando no subtratamento da hipoxia.
A própria ONU, no Twitter, partilha um excerto do trabalho dos investigadores, ampliando a palavra de alerta sobre a IA.
“O que pode e deve fazer a comunidade médica e de saúde pública? Talvez o mais importante seja simplesmente alertar sobre os riscos e ameaças representados pela IA e argumentar que velocidade e seriedade são essenciais se quisermos evitar as várias consequências prejudiciais e potencialmente catastróficas do desenvolvimento de tecnologias aprimoradas por IA e usado sem proteção e regulamentação adequadas”.
Os investigadores partilham uma preocupação mais ampla. Argumenta-se que, se a IA pode aliviar o "trabalho repetitivo, perigoso e desagradável", é também conhecido que o desemprego desencadeado pelo uso de máquinas "está fortemente associado a resultados e comportamentos adversos à saúde”.
O grupo de trabalho, associado a instituições como a British Heart Foundation, Royal College of GP e Full Fact, produziu uma carta aberta com todas estas recomendações, entretanto enviada ao Governo do Reino Unido. Pedem instrumentos jurídicos para melhor proteção dos sistemas de saúde.