Líderes da OpenIA pedem regulamentação para reduzir o "risco existencial" da IA

por Mariana Ribeiro Soares - RTP
Reuters

Os três líderes da OpenIA, a organização que desenvolveu o ChatGPT, publicaram uma nota na segunda-feira onde sugerem a regulamentação da Inteligência Artificial (IA) para proteger a humanidade de tecnologias "superinteligentes".

Sam Altman, Greg Brockman e Ilya Sutskever, os três líderes da OpenIA, assinaram uma nota onde pedem a criação de um organismo para a regulamentação da IA, tal como existe para o setor nuclear, com a Agência Internacional para a Energia Atómica (AIEA).

Na opinião dos três responsáveis, é preciso controlar a humanidade do “risco existencial” de criar acidentalmente algo que tem o poder de a destruir.


“Em termos de possíveis vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas temos que controlar o risco para chegar lá”, lê-se na nota publicada na página da OpenIA, empresa que desenvolveu o assistente virtual inteligente ChatGPT.

“Dada a possibilidade de risco existencial, não podemos ser apenas reativos”, sublinham.

Os três responsáveis defendem, então, a criação de um organismo semelhante à AIEA para “inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, colocar restrições às fases de desenvolvimento e níveis de segurança, etc”.

“Seria importante que tal agência se concentrasse na redução do risco existencial e não em questões que deveriam ser deixadas para os próprios países, como definir o que uma IA deverá ter permissão para dizer”, asseveram.

A curto prazo, os cofundadores Greg Brockman e Ilya Sutskever e o chefe executivo Sam Altman defendem que é preciso “algum grau de coordenação entre os principais esforços de desenvolvimento para garantir que o desenvolvimento da superinteligência ocorra de uma maneira que nos permita manter a segurança e ajudar na integração suave desses sistemas com a sociedade”.

Para isso, explicam que os principais governos de todo o mundo deviam criar um projeto ou limitar a taxa de crescimento da IA a uma determinada taxa por ano.
G7 concordam em acelerar regulamentação
Na passada sexta-feira, os países do G7 concordaram em avançar rapidamente na regulamentação da IA generativa, como o ChatGPT, para fazer face aos riscos crescentes de uma rápida proliferação.

Na cimeira do fórum, que decorreu na cidade de Hiroshima, no Japão, o primeiro-ministro japonês, Fumio Kishida, apelou aos seus colegas do G7 para que "trabalhem no sentido de estabelecer rapidamente um quadro internacional" para regulamentar estas novas tecnologias.

"[A cimeira de Hiroxima] procura confirmar a unidade do G7 e reforçar o seu papel em prol de uma comunidade internacional caracterizada pela cooperação e não pela divisão e confrontação, e demonstrar contribuições ativas e concretas para este objetivo", disse Kishida.

Na semana anterior a esta cimeira, a União Europeia votou um relatório para a criação de uma lei que regula a IA. Este é o penúltimo passo para a aprovação de uma lei que, entre outras coisas, irá proibir a vigilância dos cidadãos ou a manipulação de opiniões e comportamentos através de ferramentas de inteligência artificial.
Alertas para o perigo da IA
Há várias décadas que têm sido lançados avisos sobre os potenciais riscos da inteligência artificial, mas nos últimos tempos esses alertas têm aumentado, à medida que o desenvolvimento da IA acelerou.

No início do mês, Geoffrey Hinton, considerado um dos maiores pioneiros da Inteligência Artificial, demitiu-se da Google e deixou vários avisos sobre os potenciais perigos desta tecnologia.

Geoffrey Hinton, de 75 anos, sublinhou que as empresas não estão a tomar as devidas precauções no que toca ao uso deste tipo de tecnologia e disse temer que a IA se torne num risco para a própria humanidade.

"É difícil saber como prevenir as pessoas com más intenções de usar [a IA] para coisas más. Comparem a IA há cinco anos com agora. É assustador", disse o “padrinho” da IA numa entrevista ao New York Times.


O britânico-canadiano, um dos principais responsáveis pelos avanços tecnológicos que deram origem aos assistentes virtuais como o ChatGPT, diz que estes chatbots são “bastante assustadores”, dado que “podem vir a ser mais espertos que as pessoas”. "Cheguei à conclusão de que o tipo de inteligência que estamos a desenvolver é muito diferente da inteligência que temos", declarou.

Os responsáveis da OpenIA sublinham, porém, que “vale a pena considerar por que estamos a construir esta tecnologia”, afirmando que acreditam que “levará a um mundo muito melhor do que podemos imaginar hoje”.

“O mundo enfrenta muitos problemas que precisaremos de muito mais ajuda para resolver; essa tecnologia pode melhorar as nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá”, escrevem na nota.

Na semana passada, Portugal também entrou oficialmente para a corrida dos chatbots e lançou um modelo de IA generativa, tipo ChatGPT, para a Língua Portuguesa. Em março, a Google também passou a disponibilizar um chatbot chamado Bard, juntando-se aos seus concorrentes da Open IA e da Microsoft, o ChatGPT e o Bing.
PUB