Liberdade de expressão

“É fácil submeter povos livres: basta retirar – lhes o direito de expressão”. Marechal Manoel Luís Osório, Marquês do Erval -15 de abril de 1866

Seja nosso seguidor

Seguidores

Mostrando postagens com marcador inteligência artificial. Mostrar todas as postagens
Mostrando postagens com marcador inteligência artificial. Mostrar todas as postagens

21 fevereiro, 2024

ESPECIALISTA PREVÊ QUANDO A IA PODE DESTRUIR A HUMANIDADE

 

O desenvolvimento da inteligência artificial (IA) continua a provocar reações mistas em diversos setores, com os recentes avanços despertando tanto entusiasmo quanto preocupação entre especialistas e o público em geral. A introdução de um novo robô por Elon Musk, projetado para realizar tarefas domésticas, representa um avanço significativo na área, destacando o potencial da IA para simplificar as atividades diárias. No entanto, este e outros avanços rápidos na tecnologia de IA têm levantado preocupações sobre as consequências imprevistas de tal progresso.

 

Entre os problemas trazidos à tona estão os desafios apresentados pelos deepfakes, que têm manipulado a aparência de indivíduos em vídeos que circulam nas redes sociais, muitas vezes sem o seu consentimento. Esse fenômeno destaca os aspectos mais sombrios das capacidades da IA e seu potencial para uso indevido.

 

Acrescentando à apreensão em torno da trajetória da IA está a posição de Eliezer Yudkowsky, um renomado pesquisador de IA conhecido por sua visão cautelosa sobre a evolução da tecnologia. Em uma entrevista recente ao The Guardian, Yudkowsky expressou sua preocupação de que a IA poderia representar uma ameaça existencial à humanidade em um prazo relativamente curto. “Se você me pressionar contra a parede e me forçar a estabelecer probabilidades, tenho a sensação de que nosso prazo restante atual se parece mais com 5 anos do que 50 anos. Pode ser 2 anos, pode ser 10”, declarou Yudkowsky, enfatizando a urgência da situação.

 

Yudkowsky tem um histórico de fazer declarações ousadas sobre os potenciais perigos do desenvolvimento descontrolado da IA. Suas sugestões anteriores, incluindo a ideia controversa de bombardear centros de dados para conter o crescimento da IA, provocaram debates dentro da comunidade tecnológica e além. Embora Yudkowsky tenha moderado sua posição sobre o uso de medidas extremas, ele mantém que uma ação decisiva é necessária para mitigar os riscos associados à IA avançada.

 

A possibilidade de a IA se tornar autossuficiente e considerar a humanidade obsoleta é um cenário que Yudkowsky e outros na área veem como uma possibilidade real. Esse conceito, muitas vezes retratado na ficção científica, representa um ponto sem retorno que muitos temem que possa se tornar realidade se o desenvolvimento da IA continuar sem restrições.

 

Além disso, o impacto da IA no mercado de trabalho continua sendo uma preocupação significativa, com o potencial da automação para deslocar trabalhadores humanos em várias indústrias. Essa dimensão econômica adiciona outra camada de complexidade ao debate sobre o futuro papel da IA na sociedade.

 

Especialistas, incluindo aqueles entrevistados pelo The Guardian, questionam a inevitabilidade de perseguir avanços na IA sem considerar as implicações éticas. Yudkowsky sugere que limitar o desenvolvimento da IA a um certo limiar, como não exceder as capacidades de sistemas como o GPT-4, poderia oferecer um caminho para mitigar os riscos. No entanto, a probabilidade de a indústria adotar tais restrições autoimpostas permanece incerta, dada a natureza competitiva da inovação tecnológica.

* Lucas Rabello

Quarta-feira, 21 de fevereiro 2024 às 22:16


 

     

14 junho, 2023

AS CARREIRAS UNIVERSITÁRIAS QUE DESAPARECERÃO APÓS A INTELIGÊNCIA ARTIFICIAL

 



O burburinho em torno da Inteligência Artificial (IA) é tão palpável que está mudando o jogo em escala global. Mas já parou para refletir sobre o impacto disso no seu diploma universitário? Prepare-se, pois esta onda tecnológica poderia apagar algumas carreiras tradicionais do mapa.

As Potenciais Baixas: Top 5

 

1. Interpretação e Tradução: Tem como objetivo ser um intérprete ou tradutor? Pense duas vezes. Uma infinidade de aplicativos e dispositivos, alimentados pelo poder da IA, já conseguem interpretar idiomas em tempo real, entregando resultados mais rápidos e precisos.

 

2. Contabilidade: A contabilidade, uma escolha de carreira popular em muitos países, se encontra em terreno instável. Um exército de empresas está recorrendo à IA pela sua incrível precisão com números, o que pode tornar os contadores humanos redundantes.

 

3. Matemática: A matemática, a essência de inúmeras ciências, também não está segura. O poder computacional da IA poderia ofuscar a habilidade matemática humana. Os dias de resolver equações complexas no papel podem estar contados.

 

4. Escrita: Devoradores de livros e autores aspirantes, fiquem atentos. A IA também pode estar invadindo seu território. Embora o toque humano único na escrita seja insubstituível, a eficiência e o custo-benefício da IA podem pesar a seu favor. Contudo, as críticas nas redes sociais ainda preferem o conteúdo gerado por humanos.

 

5. Engenharia de Blockchain ou Criptomoedas: Uma tendência quente, as criptomoedas e sua tecnologia subjacente, o blockchain, não são imunes. A enorme capacidade de armazenamento de dados da IA e sua análise preditiva podem revolucionar este campo, tornando possivelmente obsoletos os especialistas humanos.

O Equilíbrio Incerto: IA vs. Esforço Humano

 

Com sua marcha implacável, a IA parece pronta para remodelar o panorama profissional, deixando potencialmente alguns cursos universitários para trás.

 

À medida que esta potência se permeia em nossas vidas, do menor usuário a corporações colossais, ficamos nos perguntando: é o amanhecer ou o crepúsculo para essas carreiras? Só o tempo desvendará a verdade. Mas, por enquanto, se você é um estudante aspirante, talvez seja sensato observar de perto as implicações da IA no seu campo escolhido. Afinal, prevenir é melhor do que remediar.

*Variedade

Quarta-feira, 14 de junho 2023 às 11:19


    

01 setembro, 2020

BRASIL DISCUTE ESTRATÉGIA PARA INTELIGÊNCIA ARTIFICIAL



A relevância da inteligência artificial (IA) e os riscos da sua adoção vêm ensejando movimentos por governos para implantar ações ou regular essa tecnologia. Nos últimos anos, diversos países lançaram estratégias, políticas nacionais ou legislações que atingem de forma geral ou parcial tais soluções técnicas. No Brasil, o governo colocou em consulta pública uma proposta de estratégia, que após receber contribuições deverá ser publicada em breve.

Parte dos países possui políticas mais amplas que incluem IA, em geral, focadas em indústria 4.0. É o caso da Iniciativa Digital da Dinamarca, do Programa Holandês para Empresas Inteligentes e da Plataforma Indústria 4.0 da Áustria. Contudo, com o crescimento da IA e a aposta nesses equipamentos em áreas diversas, da economia à política, os Estados passaram a debater políticas específicas sobre o tema.

Um dos pioneiros foi a China. O governo do país lançou em 2017 o “Plano de Desenvolvimento da Inteligência Artificial da Próxima Geração”. A meta era que o país se equiparasse ao líder global na área, os Estados Unidos, em 2020 e chegasse em 2030 dominando o campo. Um órgão foi criado para coordenar a implementação (Escritório de Promoção do Plano de IA) e um comitê de aconselhamento. A integração com o setor privado conta com uma “Aliança para o Desenvolvimento da IA”.

O plano indica a necessidade de elaborar uma “nova geração de teoria básica sobre a IA no mundo”, além de construir uma tecnologia de IA de forma cooperativa, elevando a capacidade técnica do país em relação ao restante do mundo, envolvendo soluções em realidade virtual, microprocessadores, processamento em linguagem natural. Uma plataforma integrada foi elencada como base para dar apoio a aplicações e soluções a serem desenvolvidas por atores públicos e privados no país. Entre as metas está a aceleração da formação de talentos em ocupações de ponta na construção de sistemas de IA e o fomento a bens e serviços como hardware inteligentes (a exemplo de robôs), carros autônomos, realidade virtual e aumentada e componentes da Internet das Coisas.

Em 2018, a Comissão Europeia lançou sua estratégia e um plano coordenado para o tema, visando orientar a construção de políticas nacionais dos estados-membros e fortalecer seu esforço de consolidar um mercado digital único. Sua abordagem foi afirmada como “centrada nos humanos”. A estratégia é focada em quatro frentes: ampliar os investimentos na área, preparação para impactos socioeconômicos, desenvolvimento de um arcabouço ético e de um modelo regulatório adequado.

O plano assume que o bloco precisa ampliar investimentos para não perder a corrida global pelo domínio da tecnologia, instituindo uma meta de aportes de empresas e instituições públicas na casa dos US$ 20 bilhões por ano. Entre os focos estão repasses para startups inovadoras e tecnologias de ponta. Para incentivar o desenvolvimento, a Europa atua para robustecer e integrar centros de pesquisa com estudos sobre o assunto, bem como promove projetos-piloto para testar as soluções propostas, no âmbito da criação de “hubs” de inovação digital no bloco.

As iniciativas de preparação envolvem a mitigação dos riscos trazidos por essas tecnologias. É o caso das mudanças no trabalho e das habilidades necessárias para as atividades produtivas. Uma das medidas será a ampliação de mestrados e doutorados em IA. Outro eixo é a construção da confiança por meio de um ambiente seguro de fluxo de dados.

Em 2018, entrou em vigor o Regulamento Geral de Proteção de Dados do bloco, considerado modelo de legislação protetiva. Contudo, o fato dos dados serem matéria-prima da IA demanda o uso de muitos registros, criando desafio de facilitar o fluxo de informações sem descuidar do respeito aos direitos dos titulares. Para além dos dados, são necessários computadores para operar o processamento. A Europa possui uma iniciativa de computação de alta performance visando avançar na sofisticação de sua estrutura informatizada com redução do consumo de energia. No plano regulatório, o intuito é construir modelos “flexíveis o suficiente para promover inovação enquanto garantam altos níveis de proteção e segurança”.

Já os Estados Unidos divulgaram sua estratégia nacional “IA para o Povo Americano” baseada em cinco pilares:

» Promover pesquisa e desenvolvimento sustentáveis no tema;
» Liberar recursos para o campo;
» Remover barreiras para a inovação em IA;
» Empoderar os trabalhadores americanos com educação focada em IA e oportunidades de treinamento, e;
» Promover um ambiente internacional que dê suporte da inovação e uso responsável da IA pelos EUA.

O plano estabelece ações para fomento da tecnologia na indústria, focando em alguns setores: transporte, saúde, manufatura, finanças, agricultura, previsão do tempo, segurança e defesa nacionais. Entre iniciativas estão a facilitação dos procedimentos para a operação de carros autônomos em estradas do país, aceleração de autorização de equipamentos de IA no sistema de saúde e atuação específica do escritório de patentes para viabilizar novos registros de soluções em IA.

No Brasil, há legislações que tratam de temas relacionados à IA, como a Lei Geral de Proteção de Dados (LGPD). O governo lançou uma consulta pública no fim de 2019 sinalizando diretrizes e apresentando indagações aos participantes sobre os caminhos que uma estratégia nacional deveria seguir. Segundo o texto da consulta, a estratégia deve ter por objetivo “potencializar o desenvolvimento e a utilização da tecnologia para promover o avanço científico e solucionar problemas concretos do país, identificando áreas prioritárias nas quais há maior potencial de obtenção de benefícios”.

A sondagem busca colher subsídios sobre determinados temas que são comuns às políticas nacionais, como incentivo à pesquisa e desenvolvimento e iniciativas para a requalificação da força de trabalho.

Um dos desafios colocados pela consulta é a identificação dos segmentos econômicos com potencial de gerar ganhos econômicos ao país e obter protagonismo na concorrência global. “Essas áreas possibilitam dar visibilidade para o país em termos internacionais, gerar empregos com maiores salários, atrair grandes empresas da área de TI[tecnologia da informação], gerar produtos e aplicações da IA para as diversas necessidades dos setores público e privado e, também, preparar o país para a necessidade de requalificação que a tecnologia vem impondo em nível global”, pontua o texto.

Na segurança pública, área objeto de intensas polêmicas no campo, a consulta reconhece os questionamentos internacionais no tocante a aplicações como reconhecimento facial e técnicas como policiamento preditivo, evitando adotar uma posição e questionando os participantes acerca das melhores respostas.

O texto indica a necessidade de instituir um ecossistema de governança de IA tanto no setor público quanto no privado para observar critérios como a explicabilidade, o combate aos vieses e a inclusão de parâmetros de privacidade, segurança e direitos humanos no desenvolvimento dos sistemas. Tomando o debate internacional sobre valores, princípios éticos e abordagens de direitos humanos aplicadas à IA, a consulta indaga os participantes sobre quais mecanismos são os mais adequados à concretização desses princípios e ao estabelecimento de salvaguardas, questionando se seria o caso de uma lei geral para o assunto.

Para pesquisadores, empresários e ativistas consultados pela Agência Brasil, o tema é complexo e enseja distintos mecanismos de políticas públicas e regulação para promover soluções adequadas e evitar consequências prejudiciais a indivíduos e grupos sociais.

O cientista de dados da startup Semantix, que comercializa aplicações de IA, defende que as políticas públicas limitem-se ao apoio às empresas atuando na área. “É importante fazer alinhamento com o estímulo à inovação, dar estímulo para startup que adota IA. Assegurar que essas empresas tenham incentivo fiscal ou incentivo a fundo perdido. Hoje estamos distantes do que ocorre nos outros países. Precisamos diminuir essa diferença para atingir inovação”, recomenda.

Um dos aspectos é o da garantia da concorrência neste mercado. Na avaliação do coordenador da Associação de Pesquisa Data Privacy Brasil, Rafael Zanatta, um eixo importante da regulação é o tratamento dos dados como ativo econômico. Uma vez que grandes conglomerados se utilizam de grandes bases de dados como vantagens competitivas (como redes sociais e mecanismos de busca), em outros países vem crescendo a discussão sobre o tratamento dos dados como uma infraestrutura pública.

“Organizações internacionais como OCDE, FMI e Banco Mundial têm relatórios dizendo que um dos maiores problemas é a alta concentração econômica, com grupos entrincheirados com grandes bases de dados. Uma das modalidades é aplicar regulações que delimitem conjuntos de dados obrigatoriamente compartilhados. Descentralizar o acesso, mas protegendo dados pessoais”, argumenta Zanatta.

O pesquisador da Fundação Konrad Adenauer e autor de livros sobre o tema Eduardo Magrani acredita que em breve será preciso dar resposta à emergência das máquinas inteligentes como agentes. “Quais as características que nos fazem humanos e em que ponto as máquinas vão ser merecedoras destes direitos? Minha opinião é que no estágio atual a gente ainda não precisa atribuir uma personalidade eletrônica. Mas precisamos preparar terreno porque a IA pode dobrar a cada 18, 24 meses. A medida que for ganhando autonomia a gente vai precisar atribuir alguns direitos e eventualmente até uma personalidade eletrônica”, sugere.

Para além da Estratégia Nacional, projetos de lei já foram apresentados no Congresso Nacional visando regular o campo. O PL 5051 de 2019, do senador Styvenson Valentim (PODEMOS/RN) estabelece princípios ao uso da IA no país, como respeito à dignidade humana e aos direitos humanos, transparência e auditoria dos sistemas, garantia da privacidade e supervisão humana. Além disso, responsabiliza os criadores ou proprietários dos sistemas por danos causados por eles.

O PL 2120 de 2020, do deputado Eduardo Bismack (PDT/CE) também estabelece fundamentos e princípios, como desenvolvimento tecnológico, proteção de dados, livre concorrência, respeito aos direitos humanos, não discriminação, explicabilidade, centralidade do ser humano, segurança, transparência e fiscalização do cumprimento das normas legais. As partes afetadas por um sistema passam a ter direitos, como informações claras sobre os critérios adotados e sobre uso de dados sensíveis. Para o deputado, diante do cenário da relevância da IA e de seu potencial, “torna-se apropriada a edição de legislação sobre a matéria, tornando obrigatórios os princípios consagrados no âmbito internacional e disciplinando direitos e deveres”.

Na avaliação do coordenador do Centro de Pesquisa em IA da Universidade de São Paulo e professor da Escola Politécnica da instituição, Fábio Gozman, medidas devem ser específicas em relação aos potenciais prejuízos sob risco de prejudicar a inovação no campo. “É preciso identificar problemas e atuar sobre eles. Seria importante definir claramente o que é uma violação de privacidade, um deepfake [vídeo alterado artificialmente para parecer real]. Isso não significa só proibir coisas, o que pode dificultar ter bônus na sua economia”, observa.

O diretor de relações governamentais da IBM no Brasil, Andriei Gutierrez, vai em sentido semelhante. “Hoje o país não está maduro para você avançar em qualquer regulação geral. Com uma lei geral corre risco de afetar aplicações das quais nossa sociedade depende. Se obrigar revisão de decisões automatizadas por humano, o risco é você ter sérias consequências". Já para a analista de políticas para América Latina da organização internacional Eletronic Frontier Foundation Veridina Alimonti, a ausência de mecanismos que assegurem a revisão humana pode tornar esse recurso figurativo.

Para o professor da Faculdade de Comunicação da Universidade de Brasília Sivaldo Pereira, a regulação do tema passa por um amplo debate sobre temas como regras sobre o poder de tomada de decisão das máquinas; níveis de autonomia; mecanismos de controle dos sistemas que podem subverter os seus autores; limites no uso de IA para algumas questões sensíveis, passando ainda por diretrizes sobre a criação de códigos (como necessidade de diversidade étnica, cultural, de classe etc. tanto nas equipes que escrevem códigos quanto no público por meio do qual o algoritmo é treinado, pois isso reflete diretamente nas características do produto final). “É preciso criar uma política regulatória centrada no elemento humano e não apenas deficiência técnica do sistema”, defende o docente. (ABr)

Terça-feira, 1º de setembro, 2020 ás 11:00