Novas tecnologias trazem desafios regulatórios e de capacitação

O advento de novas tecnologias digitais não está modificando apenas o comportamento da sociedade. O uso cada vez mais frequente de plataformas imersivas, como o metaverso, está criando um novo mercado de bens imateriais e estimulando ainda mais o uso de criptomoedas. Por outro lado, há o avanço da inteligência artificial por trás da interação que as empresas têm com seus clientes, alterando o padrão dos serviços. É um cenário que traz obrigatoriamente a discussão ética e regulatória sobre esses novos instrumentos e sobre seu impacto no mundo do trabalho.

O fenômeno parece refletir uma transformação que a indústria sofreu quando recebeu o impacto da automação. As máquinas agora substituem um trabalho que não é o braçal nas fábricas, mas o intelectual que analisa dados com maior rapidez e estabelece comunicação com clientes METAVERSO | [ Por: Michel Alecrim Fotos: Divulgação, banco de imagens Google ] sem a necessidade de um funcionário para isso.

É uma tecnologia que tem apresentado grande potencial de aproveitamento no setor de seguros, em que o uso de big data e de outras formas de análise de informações vem permitindo o desenho de produtos mais personalizados, com avaliações de risco mais precisas. O impacto da tecnologia acende também um sinal de alerta, pois quem não estiver preparado para lidar com essas ferramentas pode ficar para trás.

Estudo realizado pela consultoria Boston Consulting Group (BCG) revelou que as seguradoras que investem significativamente em Inteligência Artificial (IA) já estão obtendo resultados, como aumento de 20% a 25% em novos negócios líquidos, e reduzindo as taxas de sinistralidade em dois a três pontos percentuais. Também ficou evidencia[1]do que as posições de gerenciamento de apólices terão uma redução de 70%, e os sinistros de 40%, com a introdução dessas novas tecnologias. São setores que perdem espaço, mas, por outro lado, devem crescer os departamentos de tecnologia.

De forma geral, já há no mercado um enorme gap de profissionais especializados em novas tecnologias. Empresas vêm enfrentando dificuldade em recrutar especialistas em cibersegurança, desenvolvimento de softwares e designers.

Apesar de haver a preocupação com relação à perda de empregos, na realidade são funções que vêm sendo mudadas. Esse é um fenômeno que ocorre em diversos segmentos. Segundo Humberto Sandmann, professor da ESPM, as habilidades necessárias para exercer funções dentro do mercado de novas tecnologias são variadas e tendem a mesclar conhecimentos tradicionais com o aprendizado do uso dessas ferramentas. Apesar do corte eventual de vagas, outras surgirão à medida que a transformação digital vai ocorrendo.

“As novas profissões ainda não se estabilizaram. Há pouco tempo, não existia, por exemplo a função de gestor de redes sociais, que é muito importante e comum hoje em dia. A Lei Geral de Proteção de Dados (LGPD) foi responsável pela criação da figura do gestor de dados nas empresas, e até hoje os requisitos para ocupar essa função ainda não são bem definidos”, afirma o professor.

De acordo com Sandmann, a inteligência artificial e, mais especificamente, a vertente do machine learning, não dispensam a decisão humana, mas a auxiliam. Disciplinar essas atividades é tarefa delicada, mas, para ele, as leis já vigentes como a LGPD e o Marco Civil da Internet já são capazes de resolver eventuais conflitos.

No entanto, desde 2020 o Congresso Nacional discute um projeto de lei que busca justamente regulamentar a IA. O PL nº 21/20, de autoria do deputado Eduardo Bismarck (PDT-CE), recebeu um substitutivo e foi aprovado na Câmara. Atualmente, está em tramitação no Senado, onde é acompanhado também por uma comissão de juristas e técnicos, que assessoram os par[1]lamentares a respeito da matéria.

A proposta estabelece, entre outros princípios, que os órgãos públicos deverão monitorar a gestão do risco dos sistemas de inteligência artificial no caso concreto, avaliando os riscos de sua aplicação e as medidas de mitigação; estabelecer direitos, deveres e responsabilidades; e reconhecer instituições de autorregulação. A ideia de se regulamentar um assunto tão novo quanto a IA causa polêmica e, para muitos, o Congresso pode estar caindo em uma armadilha, na medida em que tenta engessar um processo que está em plena inovação.

Para Loren Spíndola, diretora da Associação Brasileira das Empresas Brasileiras de Software (Abes), se o chamado marco regulatório da inteligência artificial no Brasil seguir um caminho excessivamente restritivo, haverá um desestímulo para os desenvolvedores, e o País pode ficar para trás e perder projetos. Segundo ela, ainda é cedo para a entrada em vigor de medida como essa, que antes precisa de um amadurecimento do mercado e estabelecimento de parâmetros para eventuais iniciativas punitivas.

O fato de não haver um seguro faz com que o preço seja jogado para cima porque não se sabe qual é o risco. Hoje, o mercado de seguro não está preparado para atender a essa demanda, até porque nem a tecnologia está. E os reguladores estão pensando em formas de punir, quando ainda nem conseguimos nos proteger e proteger o consumidor com formas tradicionais de seguro”, ressalta Loren Spíndola.

De acordo com a diretora da Abes, há princípios éticos que são seguidos pelos desenvolve[1]dores e pelas empresas no uso da inteligência artificial, quando, por exemplo, o consumidor é informado que está se comunicando com um robô e tem a opção de falar com um humano. Ela defende que a legislação vigente seja apli[1]cada caso a caso e, a partir do momento em que houver um desenvolvimento maior dessas ferra[1]mentas, possa surgir uma regulação específica.

O mesmo raciocínio ela usa para o seguro desses sistemas, que conforme vão ficando mais bem estruturados e com seus riscos minimizados e calculados, pode atrair seguradoras sem encarecer demais o processo.

“O setor é a favor de regulação para trazer segurança jurídica, estabelecer diretrizes e nivelar a qualidade da tecnologia, para que seja usada de forma ética. Mas daí a ter uma regulação com um peso muito grande não é interessante para ninguém”, explica Loren.

A questão é polêmica e ainda há muito a ser debatido, até para que nem consumidores nem empresas sejam prejudicados. Erica Bakonyi, pesquisadora do Centro de Tecnologia e Sociedade (CTS) da FGV Direito Rio, avalia que há de fato aspectos que podem ser tratados à luz da legislação já vigente, mas adverte que há ainda deficiências no que diz respeito ao direito à privacidade, aos eventuais danos à pessoa, à possibilidade de discriminação, ao cerceamento de direitos, além de influência sobre manifestação da vontade dos usuários. Por isso, seria conveniente o estabelecimento de novas regras específicas para a IA.

Ela cita a discussão nos Estados Unidos sobre o “Nudge Act”, que trata da influência indevida com caso de discussão regulatória sobre o tema, e também lembra medidas aprovadas pelo Parla[1]mento Europeu envolvendo a tecnologia de IA.

“Desenvolver um sistema machine learning impõe regras prévias que, se não forem observa[1]das, vão gerar responsabilização em associação a outras áreas do direito como, por exemplo, a cível. Desse modo, convém definir os contornos do chamado dever de cuidado”, afirma Érica.

A operacionalização do respectivo dever, segundo ela, pode se materializar de inúmeras maneiras. “Dentre elas, privilegia-se a realização de testes desde o início, como foi a opção legislativa europeia com o novo regulamento sobre IA, bem como eventual submissão posterior a canal de resolução de controvérsia que seja independente”, acrescenta.

O debate sobre regulação de novas tecnologias também envolve os ativos digitais que estão sendo cada vez mais usados, como criptomoedas e NFTs (token não fungível, em português). São ferramentas amparadas na plataforma blockchain, que promete segurança total, na medida em que as transações e certificados são garanti[1]dos por redes de computadores e não apenas um único servidor, o que evitaria fraudes.

Esse método é que tem permitido o avanço, por exemplo, do metaverso. As indústrias abran[1]gidas por essas plataformas, como as realidades virtual e aumentada, games e cloud, entre outros, viraram a bola da vez depois que o Facebook mudou seu nome para Meta e passou a investir pesa[1]do nesse caminho. Segundo dados da Bloomber Inteligence, esse ecossistema deve movimentar mais de R$ 4 trilhões até 2024.

Nesses ambientes imersivos, que começaram a ter grande número de adeptos entre usuários de games, já é possível fazer compras de bens digitais, como roupas, acessórios, veículos e até terrenos. Muitos casos de gastos altíssimos nesses ativos ganharam notoriedade mundial, como o do jogador Neymar, que comprou NFTs da coleção Mutant Ape Yacht Club pelo valor de 55 ETH (criptomoeda Ether), avaliado em cerca de R$ 800 mil. Seus gastos com esses investimentos somam já milhões de euros.

Apesar do grande interesse e da promessa de lucros com segurança, já há notícias de fraudes, como obras de arte copiadas sem autorização dos artistas. Por isso, não é nada impensável que, além de normas jurídicas no[1]vas, surjam também produtos de seguros para esse mercado. É o que pensa o especialista em Tecnologia, Inovação e Tendências, Arthur Igreja, TEDx speaker, palestrante e autor do livro “Conveniência é o Nome do Negócio”. Segundo ele, ativos digitais também estão sujeitos a roubo, ataques e desvalorização.

Apesar de sempre haver o risco de uma regularização açodada tolher desenvolvedores e o avanço tecnológico, a discussão sempre deve privilegiar o “Já começamos a ver casos de assédio moral e sexual dentro do metaverso. A tecnologia só espelha o comportamento humano, ou seja, se tem bandido na rua, também terá no metaverso.” Arthur Igreja, TEDx speaker bom senso e a participação de todos os envolvidos. Afinal, desde o início nos anos 1990, a internet permitiu uma liberdade que parecia “uma terra sem lei”. O que garante seus benefícios são justamente as regras que ela passou a respeitar.

“São muitos os desafios éticos e morais. Desde o início da internet, houve uma série de abusos cometidos com relação a conteúdo, discursos de ódio, utilização de e-commerce para venda de itens ilegais. A mesma coisa ocorreu com as criptomoedas e o mesmo pode acontecer em ambientes cada vez mais imersivos. Já começamos a ver casos de assédio moral e sexual dentro do metaverso. E as vítimas reportam que as experiências foram extremamente realistas. A tecnologia só espelha o comportamento humano mais amplo, ou seja, se tem bandido na rua, também terá no metaverso”, adverte o especialista.

Matéria publicada originalmente na Revista de Seguros 921

Fonte: CNseg