banner

Notícias

Dec 29, 2023

IA pode causar extinção humana, declaram especialistas sem rodeios

Nos últimos meses, muitos especialistas e executivos de IA soaram o alarme sobre os perigos do desenvolvimento avançado de IA.

A última salva é uma nova declaração de 22 palavras que equipara o risco global da IA ​​ao de pandemias e guerra nuclear.

Nem todos os especialistas estão preocupados, com alguns dizendo que a IA está longe de ser avançada o suficiente para extinguir a existência humana.

Muitas pessoas estão preocupadas com o futuro da IA ​​– incluindo as mentes envolvidas na criação desse futuro. Executivos de tecnologia e CEOs de corporações de IA, incluindo empresas como OpenAI e Deepmind, assinaram uma declaração de 22 palavras simples, mas assustadora, sobre os perigos potenciais da IA: "Mitigar o risco de extinção da IA ​​deve ser uma prioridade global ao lado de outras riscos em escala social, como pandemias e guerra nuclear".

A declaração é propositalmente vaga e evita detalhes sobre como mitigar esse risco crescente deve ser uma prioridade, mas a declaração mostra um alto nível de preocupação com a IA entre as próprias pessoas por trás da tecnologia em expansão. A declaração, postada no Center for AI Safety, é uma "revelação" para especialistas em IA preocupados com o futuro da tecnologia, de acordo com o diretor executivo do centro, Dan Hendrycks.

“Há um equívoco muito comum, mesmo na comunidade de IA, de que há apenas um punhado de pessimistas [sic]”, disse Hendrycks ao The New York Times. "Mas, na verdade, muitas pessoas expressariam suas preocupações em particular sobre essas coisas."

As ameaças da IA ​​não são necessariamente que uma forma de vida artificial superavançada escravize e extermine a humanidade como em O Exterminador do Futuro. O site do Center for AI Safety detalha uma visão mais sutil de nossa desgraça, incluindo o papel potencial da IA ​​em projetar armas químicas mais eficazes, sobrecarregar campanhas de desinformação e exacerbar a desigualdade social.

Essas preocupações não são novidade. Os temores sobre a IA são quase tão antigos quanto o início da tecnologia e têm desempenhado um grande papel na ficção científica por quase um século. Isaac Asimov criou as Três Leis da Robótica em 1942, e no romance de ficção científica de 1965 Duna, a IA é completamente banida em toda a galáxia conhecida em uma tentativa de salvar a humanidade.

Em março, os líderes tecnológicos - incluindo Elon Musk (um porta-voz de longa data dos perigos da IA) e outros pesquisadores importantes da IA ​​- pediram uma moratória de seis meses na pesquisa da IA ​​"mais poderosa que o GPT-4", a versão mais recente do grande modelo multimodal da OpenAI . Em abril, a Associação para o Avanço da Inteligência Artificial divulgou sua própria carta pedindo o desenvolvimento de maneiras de "garantir que a sociedade seja capaz de colher a grande promessa da IA ​​enquanto gerencia seus riscos". E no início deste mês, o especialista em IA Geoffrey Hinton, conhecido como o "pai da IA", também expressou temores sobre o crescimento da tecnologia - chegando ao ponto de dizer que lamentava o trabalho de sua vida.

Nem todos os especialistas em IA estão se juntando à preocupação. Um cientista da computação da Universidade de Princeton disse à BBC que "a IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. Como resultado, ela desvia a atenção dos danos de curto prazo da IA", como seu comportamento tendencioso e excludente. Independentemente disso, tanto a Microsoft quanto a OpenAI pediram ao governo dos EUA que regulamente o desenvolvimento da IA, e o subcomitê do Judiciário do Senado realizou um painel sobre a supervisão da IA ​​em meados de maio.

O futuro sombrio da IA ​​ainda não foi escrito, e alguns executivos e especialistas em tecnologia estão tentando mantê-lo assim.

Você pode gostar também

O que fazer e o que não fazer ao usar a fita do pintor

As melhores churrasqueiras portáteis para cozinhar em qualquer lugar

Um relógio inteligente pode prolongar sua vida?

Você pode gostar também
COMPARTILHAR