IA pode causar extinção humana, declaram especialistas sem rodeios
Nos últimos meses, muitos especialistas e executivos de IA soaram o alarme sobre os perigos do desenvolvimento avançado de IA.
A última salva é uma nova declaração de 22 palavras que equipara o risco global da IA ao de pandemias e guerra nuclear.
Nem todos os especialistas estão preocupados, com alguns dizendo que a IA está longe de ser avançada o suficiente para extinguir a existência humana.
Muitas pessoas estão preocupadas com o futuro da IA – incluindo as mentes envolvidas na criação desse futuro. Executivos de tecnologia e CEOs de corporações de IA, incluindo empresas como OpenAI e Deepmind, assinaram uma declaração de 22 palavras simples, mas assustadora, sobre os perigos potenciais da IA: "Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outras riscos em escala social, como pandemias e guerra nuclear".
A declaração é propositalmente vaga e evita detalhes sobre como mitigar esse risco crescente deve ser uma prioridade, mas a declaração mostra um alto nível de preocupação com a IA entre as próprias pessoas por trás da tecnologia em expansão. A declaração, postada no Center for AI Safety, é uma "revelação" para especialistas em IA preocupados com o futuro da tecnologia, de acordo com o diretor executivo do centro, Dan Hendrycks.
“Há um equívoco muito comum, mesmo na comunidade de IA, de que há apenas um punhado de pessimistas [sic]”, disse Hendrycks ao The New York Times. "Mas, na verdade, muitas pessoas expressariam suas preocupações em particular sobre essas coisas."
As ameaças da IA não são necessariamente que uma forma de vida artificial superavançada escravize e extermine a humanidade como em O Exterminador do Futuro. O site do Center for AI Safety detalha uma visão mais sutil de nossa desgraça, incluindo o papel potencial da IA em projetar armas químicas mais eficazes, sobrecarregar campanhas de desinformação e exacerbar a desigualdade social.
Essas preocupações não são novidade. Os temores sobre a IA são quase tão antigos quanto o início da tecnologia e têm desempenhado um grande papel na ficção científica por quase um século. Isaac Asimov criou as Três Leis da Robótica em 1942, e no romance de ficção científica de 1965 Duna, a IA é completamente banida em toda a galáxia conhecida em uma tentativa de salvar a humanidade.
Em março, os líderes tecnológicos - incluindo Elon Musk (um porta-voz de longa data dos perigos da IA) e outros pesquisadores importantes da IA - pediram uma moratória de seis meses na pesquisa da IA "mais poderosa que o GPT-4", a versão mais recente do grande modelo multimodal da OpenAI . Em abril, a Associação para o Avanço da Inteligência Artificial divulgou sua própria carta pedindo o desenvolvimento de maneiras de "garantir que a sociedade seja capaz de colher a grande promessa da IA enquanto gerencia seus riscos". E no início deste mês, o especialista em IA Geoffrey Hinton, conhecido como o "pai da IA", também expressou temores sobre o crescimento da tecnologia - chegando ao ponto de dizer que lamentava o trabalho de sua vida.
Nem todos os especialistas em IA estão se juntando à preocupação. Um cientista da computação da Universidade de Princeton disse à BBC que "a IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA", como seu comportamento tendencioso e excludente. Independentemente disso, tanto a Microsoft quanto a OpenAI pediram ao governo dos EUA que regulamente o desenvolvimento da IA, e o subcomitê do Judiciário do Senado realizou um painel sobre a supervisão da IA em meados de maio.
O futuro sombrio da IA ainda não foi escrito, e alguns executivos e especialistas em tecnologia estão tentando mantê-lo assim.
Você pode gostar também
O que fazer e o que não fazer ao usar a fita do pintor
As melhores churrasqueiras portáteis para cozinhar em qualquer lugar
Um relógio inteligente pode prolongar sua vida?
Você pode gostar também