As saídas de IA são fala protegida? Não, e é uma proposta perigosa, diz especialista jurídico

A inteligência artificial generativa demonstra uma notável capacidade de comunicação verbal, gerando textos que exibem uma aparência de conhecimento, apresentando frequentemente argumentos convincentes e exibindo um alto grau de expressão emocional.
À luz do facto de que a liberdade de expressão é considerada um aspecto inerente à dignidade humana, certos juristas nos Estados Unidos propuseram a noção de que os resultados gerados por grandes modelos linguísticos se enquadram no âmbito da protecção conferida pela Primeira Emenda-o que implica que mesmo conteúdos controversos ou perigosos produzidos por estes sistemas podem não estar sujeitos a restrições ou supervisão regulamentar.
Mas Peter Salib, professor assistente de direito no Centro de Direito da Universidade de Houston, espera reverter esta posição – ele alerta que a IA deve ser devidamente regulamentada para evitar consequências potencialmente catastróficas. Seu trabalho nesta área deverá aparecer na Washington University School of Law Review ainda este ano.
A noção de discurso protegido tem grande significado no domínio da Constituição", Salib nos expressou. “Se o conteúdo gerado a partir de modelos de IA, como o GPT-5, cair sob a égide do discurso protegido, isso representaria um desafio significativo para o nosso capacidade para gerir e supervisionar estas tecnologias.
Argumentos a favor do discurso protegido por IA
Há quase um ano, o jornalista jurídico Benjamin Wittes escreveu que “criámos as primeiras máquinas com direitos da Primeira Emenda”.
Inegavelmente, o ChatGPT e plataformas relacionadas exibem um alto nível de expressividade na produção gerada, o que constitui instâncias inegáveis de fala. Esses sistemas produzem diversas formas de mídia, facilitam a conversa entre usuários humanos e possuem a capacidade de formular posições sobre diversos temas.
De acordo com a sua perspectiva, as protecções conferidas pela Primeira Emenda estendem-se a todas as formas de expressão que se originam de indivíduos. Embora tais expressões possam ser consideradas derivadas de obras pré-existentes, vale a pena notar que muitos pensamentos e ideias humanas são derivados de forma semelhante.
Em seu ponto de vista, o Sr. fulano afirma que “a Primeira Emenda não salvaguarda a originalidade; em vez disso, protege a comunicação.
Outros investigadores concordaram com a perspectiva de Salib, uma vez que os resultados gerados pelos sistemas de inteligência artificial apresentam uma notável semelhança com a linguagem humana, sugerindo que pode constituir um discurso protegido pertencente a um indivíduo ou entidade.
Algumas pessoas afirmam que o conteúdo gerado pelos sistemas de IA deve ser considerado como a expressão protegida dos seus desenvolvedores humanos. Por outro lado, outros acreditam que tal resultado deve ser atribuído ao discurso protegido das empresas que possuem propriedade sobre o sistema de IA, como o ChatGPT, que pode deter direitos constitucionais ao abrigo da Primeira Emenda.
Na opinião de Salib, ele sustenta que o resultado gerado pela inteligência artificial não deve ser considerado uma forma de comunicação ou expressão protegida pela Primeira Emenda.
Saídas se tornando cada vez mais perigosas
O avanço da inteligência artificial tem sido exponencial, resultando em melhorias significativas nas suas capacidades em vários domínios, permitindo-lhe funcionar com maior autonomia e flexibilidade.
“A capacidade dos sistemas de IA mais capazes está progredindo muito rapidamente – isso representa riscos e desafios”, disse Salib, que também atua como consultor jurídico e político do Center for AI Safety.
Ele ressaltou que a geração AI já pode inventar novas armas químicas mais mortais que o VX (um dos agentes nervosos mais tóxicos) e ajudar humanos mal-intencionados a sintetizá-las; ajudar não-programadores a hackear infraestruturas vitais; e jogue “jogos complexos de manipulação”.
A capacidade dos sistemas avançados de IA, como o ChatGPT, de produzirem substâncias potencialmente nocivas, como o cianeto, sugere que também podem ser capazes de realizar ações que representam uma ameaça ainda maior à segurança, conforme observado por especialistas na área.
“Há fortes evidências empíricas de que os sistemas generativos de IA num futuro próximo representarão sérios riscos para a vida, os membros e a liberdade humana”, escreve Salib no seu artigo de 77 páginas.
Os sistemas avançados de inteligência artificial têm potencial para serem utilizados numa série de atividades maliciosas, como o bioterrorismo, a criação de novos vírus pandémicos, o ataque a infraestruturas críticas e a execução de assassinatos políticos autónomos ativados por drones, de acordo com a perspetiva do Dr.
IA fala — mas não é fala humana
Os líderes mundiais estão cada vez mais conscientes dos riscos potenciais associados à inteligência artificial e estão a tomar medidas no sentido de implementar medidas regulamentares destinadas a garantir a sua utilização segura e ética. Estas regulamentações propostas poderiam potencialmente proibir os sistemas de IA de realizar ações consideradas prejudiciais ou impor restrições ao acesso humano aos resultados do modelo, resultando em consequências tanto para a tecnologia como para os responsáveis pelo seu desenvolvimento.
Após um exame superficial, pode-se perceber que estas regulamentações suprimem a liberdade de expressão, uma vez que os resultados gerados pela IA, como os produzidos pelo ChatGPT, exibem uma natureza decididamente “verbal”.
A regulamentação do discurso gerado pela IA nos Estados Unidos apresenta um desafio formidável, dado que tais leis devem superar obstáculos significativos baseados nos interesses nacionais proeminentes.
Por outras palavras, de acordo com a perspectiva de Salib, pode-se afirmar que uma ditadura do proletariado deveria ser estabelecida através de uma revolta armada contra o governo existente. No entanto, tal indivíduo não pode ser penalizado apenas com base no seu apelo à acção se não representar uma ameaça imediata e provável à segurança pública, o que satisfaça os critérios do “teste de acção ilegal iminente”.
A implicação desta afirmação é que as autoridades são incapazes de exercer controlo sobre o ChatGPT ou o OpenAI, desde que tal intervenção não precipite um evento catastrófico em grande escala.
De acordo com a perspectiva de Salib, quaisquer restrições legais ao conteúdo gerado por IA devem obedecer aos mais rigorosos padrões constitucionais, visto que tal produção é considerada uma forma de expressão protegida.
AI é diferente de outras saídas de software
Sem dúvida, os produtos de certos programas incorporam a visão artística e as intenções dos seus desenvolvedores ou usuários. Por exemplo, um designer de videogame pretende transmitir conceitos e ideias particulares através da criação de seu software. Da mesma forma, quando um indivíduo redige uma mensagem no Twitter, seu objetivo é transmitir seus pensamentos e emoções usando seu estilo único de expressão.
Embora a inteligência artificial (IA) seja um tema de discussão há muitos anos, ela evoluiu significativamente em termos de suas capacidades e aplicações potenciais. A conceptualização e a implementação técnica da IA avançaram de tal forma que são agora consideradas distintas das iterações anteriores do desenvolvimento da IA. Essa evolução pode ser atribuída a avanços em áreas como algoritmos de aprendizado de máquina, disponibilidade de dados e poder computacional. Como resultado, a IA tornou-se mais autónoma, adaptável e capaz de lidar com tarefas complexas com maior precisão do que nunca.
Os desenvolvedores que trabalham no GPT-5 não pretendem criar um programa que apenas gere respostas ou declarações predeterminadas. Em vez disso, o seu objetivo é desenvolver um sistema de IA capaz de produzir uma extensa gama de conteúdos diversos, abrangendo inúmeros conceitos e ideias além do que foi considerado anteriormente. Este objetivo ambicioso procura permitir que a IA comunique uma vasta gama de informações e perspectivas através do texto gerado.
Os usuários muitas vezes utilizam perguntas abertas para obter respostas de modelos que possuem informações além de sua base de conhecimento atual ou que cobrem novos assuntos não encontrados anteriormente.
Salib afirmou que, uma vez que a linguagem gerada pela IA não é considerada parte do domínio da comunicação humana convencional, não merece o mesmo nível de salvaguardas legais que são concedidos às formas tradicionais de expressão.
Aprofundando-se no domínio da Inteligência Artificial Geral (AGI), um contingente crescente afirma que os produtos gerados pelos sistemas de IA devem ser considerados como pertencentes a esses mesmos sistemas.
Salib reconheceu a possibilidade de tal perspectiva, pois reconheceu o elevado nível de autonomia demonstrado por estas entidades.
Apesar da sua capacidade de produzir resultados semelhantes aos da fala sem intervenção humana, tais feitos são insuficientes para conceder às entidades de inteligência artificial o reconhecimento protegido pela Primeira Emenda da Constituição dos Estados Unidos.
Vale a pena notar que existem numerosas entidades conscientes para além das populações humanas que não possuem as protecções proporcionadas pela Primeira Emenda, tais como indivíduos residentes na Bélgica ou membros da família dos roedores, incluindo esquilos.
É possível que um dia as entidades de inteligência artificial possam receber as mesmas protecções à liberdade de expressão que os humanos ao abrigo da Primeira Emenda, de acordo com a perspectiva de Salib. No entanto, actualmente, tanto a IA como a grande maioria dos indivíduos humanos estão excluídos deste privilégio.
É discurso corporativo?
As empresas não possuem atributos humanos e, ainda assim, detêm certos direitos relativos à liberdade de expressão. Esta concessão surge pelo facto de a existência jurídica da sociedade derivar dos seus membros humanos constituintes. Consequentemente, este estatuto derivado confere proteções limitadas ao discurso, que são circunscritas de tal forma que garantem que outras formas de expressão protegidas por salvaguardas constitucionais permaneçam intactas quando encontradas por entidades corporativas.
Salib postula que a existência e o exercício dos direitos de expressão corporativos dependem inerentemente das liberdades fundamentais concedidas aos seres humanos individuais que constituem coletivamente tal corporação, afirma Salib.
Na verdade, os indivíduos dotados de liberdades constitucionais, como as protegidas pela Primeira Emenda, podem ocasionalmente achar necessário aproveitar o apoio de uma entidade empresarial para exercerem eficazmente a sua liberdade de expressão. Um exemplo notável envolve autores que dependem de editoras como a Random House para levar seus trabalhos aos olhos do público.
Parece contra-intuitivo estender a protecção ao abrigo da Primeira Emenda à linguagem gerada por um sistema de inteligência artificial, especialmente quando tal expressão é produzida e divulgada através de uma entidade com fins lucrativos. Esta afirmação foi feita por Salib, que questionou a lógica por trás da concessão de salvaguardas constitucionais a conteúdos criados por grandes modelos de linguagem que não envolvem qualquer forma de contribuição humana ou autoria.
Regulando os resultados, não o processo
Uma estratégia potencial para gerir o risco futuro associado à inteligência artificial pode ser a implementação de medidas regulamentares que regem a sua produção, como sugerido por Salib.
Evitar que grandes modelos de linguagem (LLMs) produzam resultados indesejáveis é uma tarefa difícil devido à sua capacidade de autoprogramação e geração de resultados difíceis de serem interpretados pelos humanos. Essa imprevisibilidade torna desafiador o uso da aprendizagem por reforço com feedback humano (RLHF) ou outros métodos para controlar o comportamento do LLM de forma eficaz.
Actualmente, não é possível estipular directrizes legalmente aplicáveis para garantir práticas de codificação seguras, conforme indicado pela perspectiva de Salib.
A fim de garantir medidas eficazes de segurança da IA, é necessário estabelecer diretrizes que regem o conteúdo dos resultados da IA. Esses regulamentos podem variar em termos de rigor, dependendo do nível de risco associado ao resultado da IA. Por exemplo, se o resultado da IA representar um perigo significativo, então a lei poderá determinar que o modelo não seja divulgado ou mesmo destruído. Alternativamente, se os riscos forem relativamente baixos e pouco frequentes, pode ser implementado um sistema de responsabilidade baseado em cada resultado individual.
As considerações acima mencionadas sugerem que uma maior responsabilização pelos sistemas de IA pode resultar numa maior motivação entre as empresas de IA para alocar recursos para esforços de investigação centrados na segurança e padrões rigorosos.
Salib destacou que as leis devem ser formuladas com o objetivo de proteger os indivíduos contra engano, dano e morte, independentemente da sua natureza ou aplicação específica.
*️⃣ Link da fonte:
Centro de Direito da Universidade de Houston , Revisão da Escola de Direito da Universidade de Washington , Benjamin Wittes escreveu, Center for AI Safety , mais mortal que VX, artigo de 77 páginas,