Liberdade de expressão

“É fácil submeter povos livres: basta retirar – lhes o direito de expressão”. Marechal Manoel Luís Osório, Marquês do Erval -15 de abril de 1866

Seja nosso seguidor

Seguidores

Mostrando postagens com marcador Humanidade. Mostrar todas as postagens
Mostrando postagens com marcador Humanidade. Mostrar todas as postagens

21 fevereiro, 2024

ESPECIALISTA PREVÊ QUANDO A IA PODE DESTRUIR A HUMANIDADE

 

O desenvolvimento da inteligência artificial (IA) continua a provocar reações mistas em diversos setores, com os recentes avanços despertando tanto entusiasmo quanto preocupação entre especialistas e o público em geral. A introdução de um novo robô por Elon Musk, projetado para realizar tarefas domésticas, representa um avanço significativo na área, destacando o potencial da IA para simplificar as atividades diárias. No entanto, este e outros avanços rápidos na tecnologia de IA têm levantado preocupações sobre as consequências imprevistas de tal progresso.

 

Entre os problemas trazidos à tona estão os desafios apresentados pelos deepfakes, que têm manipulado a aparência de indivíduos em vídeos que circulam nas redes sociais, muitas vezes sem o seu consentimento. Esse fenômeno destaca os aspectos mais sombrios das capacidades da IA e seu potencial para uso indevido.

 

Acrescentando à apreensão em torno da trajetória da IA está a posição de Eliezer Yudkowsky, um renomado pesquisador de IA conhecido por sua visão cautelosa sobre a evolução da tecnologia. Em uma entrevista recente ao The Guardian, Yudkowsky expressou sua preocupação de que a IA poderia representar uma ameaça existencial à humanidade em um prazo relativamente curto. “Se você me pressionar contra a parede e me forçar a estabelecer probabilidades, tenho a sensação de que nosso prazo restante atual se parece mais com 5 anos do que 50 anos. Pode ser 2 anos, pode ser 10”, declarou Yudkowsky, enfatizando a urgência da situação.

 

Yudkowsky tem um histórico de fazer declarações ousadas sobre os potenciais perigos do desenvolvimento descontrolado da IA. Suas sugestões anteriores, incluindo a ideia controversa de bombardear centros de dados para conter o crescimento da IA, provocaram debates dentro da comunidade tecnológica e além. Embora Yudkowsky tenha moderado sua posição sobre o uso de medidas extremas, ele mantém que uma ação decisiva é necessária para mitigar os riscos associados à IA avançada.

 

A possibilidade de a IA se tornar autossuficiente e considerar a humanidade obsoleta é um cenário que Yudkowsky e outros na área veem como uma possibilidade real. Esse conceito, muitas vezes retratado na ficção científica, representa um ponto sem retorno que muitos temem que possa se tornar realidade se o desenvolvimento da IA continuar sem restrições.

 

Além disso, o impacto da IA no mercado de trabalho continua sendo uma preocupação significativa, com o potencial da automação para deslocar trabalhadores humanos em várias indústrias. Essa dimensão econômica adiciona outra camada de complexidade ao debate sobre o futuro papel da IA na sociedade.

 

Especialistas, incluindo aqueles entrevistados pelo The Guardian, questionam a inevitabilidade de perseguir avanços na IA sem considerar as implicações éticas. Yudkowsky sugere que limitar o desenvolvimento da IA a um certo limiar, como não exceder as capacidades de sistemas como o GPT-4, poderia oferecer um caminho para mitigar os riscos. No entanto, a probabilidade de a indústria adotar tais restrições autoimpostas permanece incerta, dada a natureza competitiva da inovação tecnológica.

* Lucas Rabello

Quarta-feira, 21 de fevereiro 2024 às 22:16