Liberdade de expressão

“É fácil submeter povos livres: basta retirar – lhes o direito de expressão”. Marechal Manoel Luís Osório, Marquês do Erval -15 de abril de 1866

Seja nosso seguidor

Seguidores

21 fevereiro, 2024

ESPECIALISTA PREVÊ QUANDO A IA PODE DESTRUIR A HUMANIDADE

 

O desenvolvimento da inteligência artificial (IA) continua a provocar reações mistas em diversos setores, com os recentes avanços despertando tanto entusiasmo quanto preocupação entre especialistas e o público em geral. A introdução de um novo robô por Elon Musk, projetado para realizar tarefas domésticas, representa um avanço significativo na área, destacando o potencial da IA para simplificar as atividades diárias. No entanto, este e outros avanços rápidos na tecnologia de IA têm levantado preocupações sobre as consequências imprevistas de tal progresso.

 

Entre os problemas trazidos à tona estão os desafios apresentados pelos deepfakes, que têm manipulado a aparência de indivíduos em vídeos que circulam nas redes sociais, muitas vezes sem o seu consentimento. Esse fenômeno destaca os aspectos mais sombrios das capacidades da IA e seu potencial para uso indevido.

 

Acrescentando à apreensão em torno da trajetória da IA está a posição de Eliezer Yudkowsky, um renomado pesquisador de IA conhecido por sua visão cautelosa sobre a evolução da tecnologia. Em uma entrevista recente ao The Guardian, Yudkowsky expressou sua preocupação de que a IA poderia representar uma ameaça existencial à humanidade em um prazo relativamente curto. “Se você me pressionar contra a parede e me forçar a estabelecer probabilidades, tenho a sensação de que nosso prazo restante atual se parece mais com 5 anos do que 50 anos. Pode ser 2 anos, pode ser 10”, declarou Yudkowsky, enfatizando a urgência da situação.

 

Yudkowsky tem um histórico de fazer declarações ousadas sobre os potenciais perigos do desenvolvimento descontrolado da IA. Suas sugestões anteriores, incluindo a ideia controversa de bombardear centros de dados para conter o crescimento da IA, provocaram debates dentro da comunidade tecnológica e além. Embora Yudkowsky tenha moderado sua posição sobre o uso de medidas extremas, ele mantém que uma ação decisiva é necessária para mitigar os riscos associados à IA avançada.

 

A possibilidade de a IA se tornar autossuficiente e considerar a humanidade obsoleta é um cenário que Yudkowsky e outros na área veem como uma possibilidade real. Esse conceito, muitas vezes retratado na ficção científica, representa um ponto sem retorno que muitos temem que possa se tornar realidade se o desenvolvimento da IA continuar sem restrições.

 

Além disso, o impacto da IA no mercado de trabalho continua sendo uma preocupação significativa, com o potencial da automação para deslocar trabalhadores humanos em várias indústrias. Essa dimensão econômica adiciona outra camada de complexidade ao debate sobre o futuro papel da IA na sociedade.

 

Especialistas, incluindo aqueles entrevistados pelo The Guardian, questionam a inevitabilidade de perseguir avanços na IA sem considerar as implicações éticas. Yudkowsky sugere que limitar o desenvolvimento da IA a um certo limiar, como não exceder as capacidades de sistemas como o GPT-4, poderia oferecer um caminho para mitigar os riscos. No entanto, a probabilidade de a indústria adotar tais restrições autoimpostas permanece incerta, dada a natureza competitiva da inovação tecnológica.

* Lucas Rabello

Quarta-feira, 21 de fevereiro 2024 às 22:16


 

     

Nenhum comentário:

Postar um comentário