Segurança da inteligência artificial: desafios e soluções

Segurança da inteligência artificial: desafios e soluções

4 de março de 2024 direito civil

Com o boom causado pelo lançamento do ChatGPT, a inteligência artificial generativa tornou-se parte da rotina de muitas pessoas e empresas. E no setor judiciário não é diferente. É inquestionável o potencial dessa tecnologia em automatizar processos, desde os mais simples até os mais complexos. 

No entanto, o uso desenfreado vem levantando pautas importantes sobre a segurança da inteligência artificial, sobre ética e, principalmente, privacidade de dados. Dada a importância do tema, trouxe alguns pontos de reflexão e legislação para que você tenha em mente. Acompanhe. 

A legislação brasileira em torno da Inteligência Artificial 

O Brasil ainda não tem  uma legislação específica para a inteligência artificial e suas ferramentas. Mas cerca de 46 projetos que buscam regulamentar o uso dessa tecnologia já estão em andamento no Congresso Nacional, na Câmara dos Deputados e no Senado Federal. 

As propostas de lei que estão relacionadas à segurança da inteligência artificial incluem direitos autorais, sanções para crimes cometidos a partir do uso de IA — principalmente a criação de imagens e áudios falsos de pessoas para uso criminoso. 

Por outro lado, isso não quer dizer que a tecnologia e a internet são terras sem lei. Nos últimos anos, o Brasil teve grande foco em regulamentar e até mesmo controlar os avanços da tecnologia. 

Três exemplos claros são: 

  • LGPD (Lei Geral de Proteção de Dados) que está em vigor desde 2020
  • Marco Civil da internet
  • Lei de acesso à informação

De quem é a responsabilidade? 

Uma das principais dificuldades quando falamos de regulamentação e punição, é a de como atribuir ética, moral e responsabilidades legais à inteligência artificial. Pense, por exemplo, nos acidentes noticiados com os carros da Tesla. 

Eram veículos sem motoristas e sem passageiros que estavam andando sozinhos. O responsável é Tesla? O desenvolvedor da inteligência e do sistema autônomo? De quem liberou o veículo para funcionamento? 

Mas, é óbvio que em alguns casos, os criminosos e responsáveis são inquestionáveis. Por exemplo, quando saiu nos noticiários que pessoas estavam criando vídeos fraudulentos com famosos, como Dr, Drauzio Varella e William Bonner, vendendo remédios para emagrecimento. 

O outro lado da moeda: vazamento de dados pela IA acontece por falhas dos usuários 

A segurança da inteligência artificial não depende somente dos seus desenvolvedores, sistemas e imensos bancos de dados. As práticas dos usuários também são grandes portas abertas para vazamentos e inseguranças. 

De acordo com relatório do Group-IB (especialistas em cibersegurança), o Brasil é o terceiro país do mundo mais atingido pelo vazamento de dados através do ChatGPT. No entanto, essas brechas não foram causadas por falhas de segurança do ChatGPT, mas devido ao uso comprometido dos usuários. 

Vírus (como os malwares), cookies e acesso a sites e links duvidosos foram os fatores mais comuns ao roubo de senhas e informações desses usuários.

O uso da inteligência artificial no setor judiciário brasileiro

O setor judiciário também já implementou o uso da inteligência artificial generativa em seus processos. 

Nesse caso, a IA é aplicada em sistemas para atendimento (assistentes virtuais), análise de dados, identificação de padrões em processos judiciais, análises preditivas, gestão financeira (principalmente automação de cobranças de clientes), produção de documentos processuais e outros. 

Nesse tipo de atuação, a preocupação fica em torno da transparência e imparcialidade da tecnologia da IA e de seus algoritmos. Afinal, não pode haver qualquer tipo de viés nas informações para não resultar em decisões discriminatórias ou injustas. 

Como minimizar os riscos na segurança da inteligência artificial? 

Fortalecer a segurança da inteligência artificial e minimizar os riscos envolvidos é uma abordagem que depende de várias frentes e fatores — desde a forma que a IA foi desenvolvida até a rotina dos seus usuários. 

Entre eles: 

  • auditorias e políticas de segurança: periodicamente é importante avaliar as conformidades, padrões de segurança e possíveis vulnerabilidades nos sistemas e plataformas de inteligência artificial no ambiente de trabalho; 
  • camadas de segurança: a autenticação de dois fatores (2FA), por exemplo, adiciona uma camada extra de segurança, evitando acessos não autorizados; 

Outro ponto crucial e que é uma das pontas de segurança da inteligência artificial é o fornecedor da solução. Empresas atualizadas e com tecnologias avançadas têm melhores recursos para a segurança da sua IA. 

Além disso, bons fornecedores têm políticas claras de privacidade de dados, ética e proteção de informações. Nesse quesito, nas minhas pesquisas, uma das empresas que vêm se destacando no mercado da inteligência artificial avançada é a Weni

Após alguns testes na plataforma, vi que em um de seus módulos está disponível a solução WeniGPT. Trata-se de uma inteligência artificial que você mesmo cria, ou seja, você tem total autonomia para incluir ou excluir dados e informações do banco de dados da sua inteligência. 

Isso garante que a sua IA não forneça nem processe dados desatualizados, informações que você não quer divulgar ou com vieses. Somado a isso, a empresa garante camadas de segurança, como a 2FA, controle de acessos e política de segurança e ética na plataforma. 

E não é necessário ter equipes técnicas, nem engenheiros de inteligência artificial. Toda a gestão é intuitiva e há uma trilha de conhecimento disponível na plataforma, mesmo para os mais leigos. 

O que aprendemos com isso? A inteligência artificial foi rapidamente adotada em diversas demandas da sociedade e do trabalho, inclusive no setor judiciário. No entanto, assim como qualquer tecnologia que oferece inúmeras vantagens e possibilidades, é preciso ficar atento à segurança e à ética.  
Para mais informações, siga o meu Instagram para acompanhar mais conteúdos.

Deixe um comentário