A
relevância da inteligência artificial (IA) e os riscos da sua adoção vêm
ensejando movimentos por governos para implantar ações ou regular essa
tecnologia. Nos últimos anos, diversos países lançaram estratégias, políticas
nacionais ou legislações que atingem de forma geral ou parcial tais soluções
técnicas. No Brasil, o governo colocou em consulta pública uma proposta de
estratégia, que após receber contribuições deverá ser publicada em breve.
Parte
dos países possui políticas mais amplas que incluem IA, em geral, focadas em
indústria 4.0. É o caso da Iniciativa Digital da Dinamarca, do Programa
Holandês para Empresas Inteligentes e da Plataforma Indústria 4.0 da Áustria.
Contudo, com o crescimento da IA e a aposta nesses equipamentos em áreas
diversas, da economia à política, os Estados passaram a debater políticas
específicas sobre o tema.
Um
dos pioneiros foi a China. O governo do país lançou em 2017 o “Plano de
Desenvolvimento da Inteligência Artificial da Próxima Geração”. A meta era que
o país se equiparasse ao líder global na área, os Estados Unidos, em 2020 e
chegasse em 2030 dominando o campo. Um órgão foi criado para coordenar a
implementação (Escritório de Promoção do Plano de IA) e um comitê de
aconselhamento. A integração com o setor privado conta com uma “Aliança para o
Desenvolvimento da IA”.
O
plano indica a necessidade de elaborar uma “nova geração de teoria básica sobre
a IA no mundo”, além de construir uma tecnologia de IA de forma cooperativa,
elevando a capacidade técnica do país em relação ao restante do mundo,
envolvendo soluções em realidade virtual, microprocessadores, processamento em
linguagem natural. Uma plataforma integrada foi elencada como base para dar
apoio a aplicações e soluções a serem desenvolvidas por atores públicos e privados
no país. Entre as metas está a aceleração da formação de talentos em ocupações
de ponta na construção de sistemas de IA e o fomento a bens e serviços como
hardware inteligentes (a exemplo de robôs), carros autônomos, realidade virtual
e aumentada e componentes da Internet das Coisas.
Em
2018, a Comissão Europeia lançou sua estratégia e um plano coordenado para o
tema, visando orientar a construção de políticas nacionais dos estados-membros
e fortalecer seu esforço de consolidar um mercado digital único. Sua abordagem
foi afirmada como “centrada nos humanos”. A estratégia é focada em quatro
frentes: ampliar os investimentos na área, preparação para impactos
socioeconômicos, desenvolvimento de um arcabouço ético e de um modelo regulatório
adequado.
O
plano assume que o bloco precisa ampliar investimentos para não perder a
corrida global pelo domínio da tecnologia, instituindo uma meta de aportes de
empresas e instituições públicas na casa dos US$ 20 bilhões por ano. Entre os
focos estão repasses para startups inovadoras e tecnologias de ponta. Para
incentivar o desenvolvimento, a Europa atua para robustecer e integrar centros
de pesquisa com estudos sobre o assunto, bem como promove projetos-piloto para
testar as soluções propostas, no âmbito da criação de “hubs” de inovação
digital no bloco.
As
iniciativas de preparação envolvem a mitigação dos riscos trazidos por essas
tecnologias. É o caso das mudanças no trabalho e das habilidades necessárias
para as atividades produtivas. Uma das medidas será a ampliação de mestrados e
doutorados em IA. Outro eixo é a construção da confiança por meio de um
ambiente seguro de fluxo de dados.
Em
2018, entrou em vigor o Regulamento Geral de Proteção de Dados do bloco,
considerado modelo de legislação protetiva. Contudo, o fato dos dados serem
matéria-prima da IA demanda o uso de muitos registros, criando desafio de
facilitar o fluxo de informações sem descuidar do respeito aos direitos dos
titulares. Para além dos dados, são necessários computadores para operar o
processamento. A Europa possui uma iniciativa de computação de alta performance
visando avançar na sofisticação de sua estrutura informatizada com redução do
consumo de energia. No plano regulatório, o intuito é construir modelos
“flexíveis o suficiente para promover inovação enquanto garantam altos níveis
de proteção e segurança”.
Já
os Estados Unidos divulgaram sua estratégia nacional “IA para o Povo Americano”
baseada em cinco pilares:
»
Promover pesquisa e desenvolvimento sustentáveis no tema;
»
Liberar recursos para o campo;
»
Remover barreiras para a inovação em IA;
»
Empoderar os trabalhadores americanos com educação focada em IA e oportunidades
de treinamento, e;
»
Promover um ambiente internacional que dê suporte da inovação e uso responsável
da IA pelos EUA.
O
plano estabelece ações para fomento da tecnologia na indústria, focando em
alguns setores: transporte, saúde, manufatura, finanças, agricultura, previsão
do tempo, segurança e defesa nacionais. Entre iniciativas estão a facilitação
dos procedimentos para a operação de carros autônomos em estradas do país,
aceleração de autorização de equipamentos de IA no sistema de saúde e atuação
específica do escritório de patentes para viabilizar novos registros de
soluções em IA.
No
Brasil, há legislações que tratam de temas relacionados à IA, como a Lei Geral
de Proteção de Dados (LGPD). O governo lançou uma consulta pública no fim de
2019 sinalizando diretrizes e apresentando indagações aos participantes sobre
os caminhos que uma estratégia nacional deveria seguir. Segundo o texto da
consulta, a estratégia deve ter por objetivo “potencializar o desenvolvimento e
a utilização da tecnologia para promover o avanço científico e solucionar
problemas concretos do país, identificando áreas prioritárias nas quais há
maior potencial de obtenção de benefícios”.
A
sondagem busca colher subsídios sobre determinados temas que são comuns às
políticas nacionais, como incentivo à pesquisa e desenvolvimento e iniciativas
para a requalificação da força de trabalho.
Um
dos desafios colocados pela consulta é a identificação dos segmentos econômicos
com potencial de gerar ganhos econômicos ao país e obter protagonismo na
concorrência global. “Essas áreas possibilitam dar visibilidade para o país em termos
internacionais, gerar empregos com maiores salários, atrair grandes empresas da
área de TI[tecnologia da informação], gerar produtos e aplicações da IA para as
diversas necessidades dos setores público e privado e, também, preparar o país
para a necessidade de requalificação que a tecnologia vem impondo em nível
global”, pontua o texto.
Na
segurança pública, área objeto de intensas polêmicas no campo, a consulta
reconhece os questionamentos internacionais no tocante a aplicações como
reconhecimento facial e técnicas como policiamento preditivo, evitando adotar
uma posição e questionando os participantes acerca das melhores respostas.
O
texto indica a necessidade de instituir um ecossistema de governança de IA
tanto no setor público quanto no privado para observar critérios como a
explicabilidade, o combate aos vieses e a inclusão de parâmetros de
privacidade, segurança e direitos humanos no desenvolvimento dos sistemas.
Tomando o debate internacional sobre valores, princípios éticos e abordagens de
direitos humanos aplicadas à IA, a consulta indaga os participantes sobre quais
mecanismos são os mais adequados à concretização desses princípios e ao
estabelecimento de salvaguardas, questionando se seria o caso de uma lei geral
para o assunto.
Para
pesquisadores, empresários e ativistas consultados pela Agência Brasil, o tema
é complexo e enseja distintos mecanismos de políticas públicas e regulação para
promover soluções adequadas e evitar consequências prejudiciais a indivíduos e
grupos sociais.
O
cientista de dados da startup Semantix, que comercializa aplicações de IA,
defende que as políticas públicas limitem-se ao apoio às empresas atuando na
área. “É importante fazer alinhamento com o estímulo à inovação, dar estímulo
para startup que adota IA. Assegurar que essas empresas tenham incentivo fiscal
ou incentivo a fundo perdido. Hoje estamos distantes do que ocorre nos outros
países. Precisamos diminuir essa diferença para atingir inovação”, recomenda.
Um
dos aspectos é o da garantia da concorrência neste mercado. Na avaliação do
coordenador da Associação de Pesquisa Data Privacy Brasil, Rafael Zanatta, um
eixo importante da regulação é o tratamento dos dados como ativo econômico. Uma
vez que grandes conglomerados se utilizam de grandes bases de dados como
vantagens competitivas (como redes sociais e mecanismos de busca), em outros
países vem crescendo a discussão sobre o tratamento dos dados como uma
infraestrutura pública.
“Organizações
internacionais como OCDE, FMI e Banco Mundial têm relatórios dizendo que um dos
maiores problemas é a alta concentração econômica, com grupos entrincheirados
com grandes bases de dados. Uma das modalidades é aplicar regulações que
delimitem conjuntos de dados obrigatoriamente compartilhados. Descentralizar o
acesso, mas protegendo dados pessoais”, argumenta Zanatta.
O
pesquisador da Fundação Konrad Adenauer e autor de livros sobre o tema Eduardo
Magrani acredita que em breve será preciso dar resposta à emergência das
máquinas inteligentes como agentes. “Quais as características que nos fazem
humanos e em que ponto as máquinas vão ser merecedoras destes direitos? Minha
opinião é que no estágio atual a gente ainda não precisa atribuir uma
personalidade eletrônica. Mas precisamos preparar terreno porque a IA pode
dobrar a cada 18, 24 meses. A medida que for ganhando autonomia a gente vai
precisar atribuir alguns direitos e eventualmente até uma personalidade
eletrônica”, sugere.
Para
além da Estratégia Nacional, projetos de lei já foram apresentados no Congresso
Nacional visando regular o campo. O PL 5051 de 2019, do senador Styvenson
Valentim (PODEMOS/RN) estabelece princípios ao uso da IA no país, como respeito
à dignidade humana e aos direitos humanos, transparência e auditoria dos
sistemas, garantia da privacidade e supervisão humana. Além disso,
responsabiliza os criadores ou proprietários dos sistemas por danos causados
por eles.
O
PL 2120 de 2020, do deputado Eduardo Bismack (PDT/CE) também estabelece
fundamentos e princípios, como desenvolvimento tecnológico, proteção de dados,
livre concorrência, respeito aos direitos humanos, não discriminação,
explicabilidade, centralidade do ser humano, segurança, transparência e
fiscalização do cumprimento das normas legais. As partes afetadas por um
sistema passam a ter direitos, como informações claras sobre os critérios
adotados e sobre uso de dados sensíveis. Para o deputado, diante do cenário da
relevância da IA e de seu potencial, “torna-se apropriada a edição de
legislação sobre a matéria, tornando obrigatórios os princípios consagrados no
âmbito internacional e disciplinando direitos e deveres”.
Na
avaliação do coordenador do Centro de Pesquisa em IA da Universidade de São
Paulo e professor da Escola Politécnica da instituição, Fábio Gozman, medidas
devem ser específicas em relação aos potenciais prejuízos sob risco de
prejudicar a inovação no campo. “É preciso identificar problemas e atuar sobre
eles. Seria importante definir claramente o que é uma violação de privacidade,
um deepfake [vídeo alterado artificialmente para parecer real]. Isso não
significa só proibir coisas, o que pode dificultar ter bônus na sua economia”,
observa.
O
diretor de relações governamentais da IBM no Brasil, Andriei Gutierrez, vai em
sentido semelhante. “Hoje o país não está maduro para você avançar em qualquer
regulação geral. Com uma lei geral corre risco de afetar aplicações das quais
nossa sociedade depende. Se obrigar revisão de decisões automatizadas por
humano, o risco é você ter sérias consequências". Já para a analista de
políticas para América Latina da organização internacional Eletronic Frontier
Foundation Veridina Alimonti, a ausência de mecanismos que assegurem a revisão
humana pode tornar esse recurso figurativo.
Para
o professor da Faculdade de Comunicação da Universidade de Brasília Sivaldo
Pereira, a regulação do tema passa por um amplo debate sobre temas como regras
sobre o poder de tomada de decisão das máquinas; níveis de autonomia;
mecanismos de controle dos sistemas que podem subverter os seus autores;
limites no uso de IA para algumas questões sensíveis, passando ainda por
diretrizes sobre a criação de códigos (como necessidade de diversidade étnica,
cultural, de classe etc. tanto nas equipes que escrevem códigos quanto no
público por meio do qual o algoritmo é treinado, pois isso reflete diretamente
nas características do produto final). “É preciso criar uma política
regulatória centrada no elemento humano e não apenas deficiência técnica do
sistema”, defende o docente. (ABr)
Terça-feira,
1º de setembro, 2020 ás 11:00