Colegiado sugere que medida é necessária e emergencial devido aos riscos reais e iminentes
Audiência pública no Senado Federal nesta segunda-feira (5) sobre o marco legal defendeu a regulação da IA (Inteligência Artificial). Novos integrantes do CCS (Conselho de Comunicação Social) do Congresso Nacional sugerem que medida é necessária e emergencial, principalmente devido aos riscos reais e iminentes.
No ano passado, comissão de juristas havia estudado o tema e proposto a regulamentação, que atualmente está inserida no PL (Projeto de Lei) 2.338/2023, que fora apresentado por Rodrigo Pacheco, presidente do Senado.
Miguel Matos, presidente do CCS, advogado e editor-chefe do portal jurídico Migalhas, disse ao portal do Senado que “há 20 anos resolvemos não estabelecer esses regramentos para a internet e hoje vemos que talvez tenhamos errado um pouco”, referindo-se à necessidade de regulação dessa área da ciência da computação.
Já Ricardo Villas Bôas Cueva, ministro do STJ (Superior Tribunal de Justiça) e presidente da comissão de juristas destinada a discutir a inteligência artificial, explicou, também ao portal, que a comissão de juristas foi constituída primeiramente para analisar projetos sobre o assunto aprovados na Câmara em 2020. Realizado entre fevereiro e dezembro do ano passado, o trabalho culminou em um plano de marco legal encampado pelo Senado.
O ministro do STJ ressaltou que na proposta constam várias finalidades, entre elas o escopo da inteligência artificial; definição da necessidade de que os algoritmos tenham transparência e que sejam explicáveis; princípios éticos na utilização da tecnologia; garantia de direitos dos afetados pela IA e implantação de normas para combater a discriminação.
De acordo com o informe no portal, a intenção é de criação de marco legal para instituir os direitos para a proteção da parte mais vulnerável, ou seja, os indivíduos afetados pela IA. O segundo eixo consiste, a partir do modelo europeu, definir alguns riscos, classificá-los e com base neles impor deveres de conduta. O ministro enfatizou que algumas ameaças são inaceitáveis, como a hierarquização social.
O presidente da comissão de juristas ainda recordou de que uma das questões mais complexas é a da responsabilidade civil, por isso, é necessário graduá-la conforme os riscos. Ele destacou que o plano é flexível e que permite adequação às novas tecnologias. Para ele, cada segmento deve ter agências dedicadas a regular a IA.
Laura Schertel, relatora do colegiado de juristas, afirmou que, com a propositura do PL, será possível amadurecer a proposta de um marco geral, “tão complexo e também tão urgente”. “Conseguimos perceber os benefícios da inteligência artificial, mas também conseguimos perceber de forma rápida a suas falhas”, disse ela ao pedir atenção aos perigos reais, como, por exemplo, erros, discriminações e aumento da desinformação.
A IA tem causado grande preocupação sobre seus impactos em vários segmentos, mas uma das que mais merecem atenção, ainda de acordo com o texto no portal do Senado, é a da comunicação social. Entre os impactos dos direitos fundamentais da inteligência artificial, apontou “igualdade, liberdade, devido processo legal, privacidade e proteção de dados, que demonstram, em linhas gerais, o porquê de se precisar de uma regulação”.
CHATGPT
Walter Carnielli, professor do departamento de filosofia da Unicamp (Universidade Estadual de Campinas), acredita que o que ocorre atualmente com a inteligência artificial “é um tsunami”. O matemático fez menção ao ChatGPT, ferramenta de processamento de linguagem natural orientada por inteligência artificial, que considera “inteligência muito boa”.
Entretanto, informa que também apresenta casos de “alucinação”, como a não realização de cálculos matemáticos e a criação de informações erradas. Ele, porém, diz não ver interesse das big techs em fazer com que a IA ajude a conter as chamadas “fake news”.
Já a professora Dora Kaufman, do programa de tecnologia da inteligência e design digital da PUC-SP (Pontifícia Universidade Católica de São Paulo) destacou que o ChatGPT trouxe o IA para a discussão, mas para a acadêmica, a “repercussão alertando sobre o risco de extinção da humanidade” ainda está no plano da ficção científica.
Para ela, o Senado deveria criar um colegiado para estudar a forma com a IA está sendo utilizada no País, assim como os danos reais. Para essa pauta, a professora afirma ser primordial a participação de agências regulatórias setoriais, como os sistemas financeiro e bancário, que utilizam a IA há muitos anos, além da sociedade.
“É um excelente ponto de partida”, disse ela em relação ao PL e à necessidade de capacitação dos indivíduos para compreender, ao menos, a lógica do funcionamento desse sistema. Mas apelou para que o Senado não precipite a discussão, ao considerar que “o processo é tão importante quanto o resultado”, disse ela.
COMUNICAÇÃO SOCIAL
Professor do departamento de comunicação social da Unesp (Universidade Estadual Paulista), Juliano Carvalho defendeu que a área de comunicação e informação passe a ter prioridade no marco legal. Ele destacou a natureza do trabalho jornalístico e problemas, como, por exemplo, os relacionados à ética. “Os ecossistemas de desinformação que alimentam a produção de conteúdo podem levar a opiniões e a desastres como capacidade para ampliar notíciais faltas e gerar deep fakes”. Segundo ele, da maneira como se apresenta atualmente, a IA não irá combater as fake news.
“Não estamos falando de coisas triviais. O ChatGPT em três meses alcançou 100 milhões de usuários. Não acredito numa comunicação que não seja mediada humanamente, porque a nossa história, o nosso legado, a nossa língua depende fundamentalmente das escolhas que nós estamos fazendo”, disse ele ao portal do Senado.




