Tribunal proíbe uso de evidências de vídeo ‘aprimoradas por IA’ porque não é assim que a IA funciona
Uma decisão de um juiz do estado de Washington impediu a utilização de material de vídeo que foi submetido a aprimoramento “amplificado por IA” como prova admissível em um caso envolvendo três acusações de homicídio. Esta decisão é louvável, considerando a crença crescente entre alguns indivíduos de que o emprego da tecnologia de inteligência artificial pode conceder-lhes uma visão exclusiva de informações visuais ocultas.
Os potenciais desenvolvimentos futuros na inteligência artificial (IA) médica são um tema de especulação e exploração contínua, à medida que os investigadores continuam a expandir os limites do que é possível com esta tecnologia. No domínio da medicina, a IA já se mostrou promissora em áreas como assistência ao diagnóstico, descoberta de medicamentos e planeamento de tratamento personalizado. À medida que o poder computacional continua a aumentar e os algoritmos de aprendizagem automática se tornam mais avançados, é provável que vejamos avanços ainda maiores nestas áreas. Além disso, poderá haver novas aplicações para a IA em domínios como a análise genética ou a modelação preditiva de surtos de doenças. Em última análise, as possibilidades da IA médica são vastas e estimulantes, oferecendo o potencial para revolucionar os cuidados de saúde como os conhecemos.
O juiz Leroy McCullough, de King County, Washington, escreveu em uma nova decisão que a tecnologia de IA usou “métodos opacos para representar o que o modelo de IA ‘pensa’ que deveria ser mostrado”, de acordo com um novo relatório da NBC News na terça-feira. E isso é uma clareza refrescante sobre o que está acontecendo com essas ferramentas de IA em um mundo de entusiasmo pela IA.
O Honorável Juiz McCullough opina que a incorporação de provas reforçadas por Al neste caso pode resultar em uma ambigüidade em relação aos assuntos em questão e obscurecer a confiabilidade dos depoimentos de testemunhas, além de levar a um processo prolongado relativo ao método não verificável empregado pelo sistema de IA.
O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle em 2021. Os advogados de Puloka queriam apresentar um vídeo de celular capturado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que possa ser obtido a partir da filmagem alterada.
Os advogados de Puloka supostamente usaram um “especialista” em produção criativa de vídeos que nunca havia trabalhado em um caso criminal antes para “aprimorar” o vídeo. A ferramenta de IA usada por esse especialista anônimo foi desenvolvida pela Topaz Labs, com sede no Texas, e está disponível para qualquer pessoa com conexão à Internet.
O surgimento de tecnologias de imagem alimentadas por inteligência artificial (IA) nos últimos tempos gerou conceitos errados sobre suas capacidades. Muitas pessoas acreditam que submeter uma imagem ou vídeo a algoritmos de aprimoramento de IA resultará em melhor resolução visual e detalhes. No entanto, deve-se reconhecer que estes algoritmos não fornecem uma representação mais precisa do conteúdo original, mas geram detalhes adicionais que não estavam inicialmente presentes.
Em 2022, durante a cerimônia do Oscar apresentada por Chris Rock, surgiu uma suposta teoria da conspiração sugerindo que o comediante havia usado uma prótese facial ao ser agredido pelo ator Will Smith. Essa especulação surgiu devido ao fato de indivíduos utilizarem técnicas de aprimoramento de imagem, como upscaling de fotos, para tentar discernir maiores detalhes do incidente.
Ao aplicar melhorias de IA às imagens, o processo nem sempre resulta numa representação fiel do conteúdo original. Em vez disso, o algoritmo adiciona detalhes adicionais com a intenção de melhorar a clareza, às vezes levando a alterações ou distorções não intencionais do assunto. Ao utilizar o controle deslizante fornecido, pode-se observar a versão pixelada da imagem que ganhou popularidade antes de ser aprimorada por ferramentas de inteligência artificial, revelando características que não eram inicialmente discerníveis na transmissão inicial.
Após o exame de inúmeras imagens e filmagens de alta qualidade relativas ao evento, fica evidente que não havia nenhum acolchoamento protetor presente no indivíduo conhecido como “Rock” durante a ocorrência. Apesar desta evidência indiscutível, alguns indivíduos optaram por melhorar a resolução visual da referida filmagem para um nível surpreendente de 8K, numa tentativa de discernir quaisquer detalhes ocultos dentro do quadro.
O surgimento de produtos de inteligência artificial (IA) levou a um mal-entendido generalizado sobre as suas capacidades entre os leigos. Em particular, grandes modelos de linguagem, como o ChatGPT, enganaram indivíduos com habilidades cognitivas avançadas, fazendo-os acreditar que esses chatbots possuem a capacidade de raciocínio complexo. Contudo, na realidade, estas máquinas apenas utilizam algoritmos preditivos para gerar palavras subsequentes que pareçam razoáveis e coerentes, dando assim a impressão de serem altamente inteligentes. Consequentemente, numerosos utilizadores consideram-nos mais proficientes do que meros truques ilusórios devido à sua simulação convincente da conversa humana.
Parece que persistirá a situação em que investimentos financeiros substanciais continuam a ser feitos em empresas de IA, em que numerosos indivíduos que possuem conhecimentos suficientes afirmam perceber desenvolvimentos notáveis que ocorrem para além do espectro visível, mas atribuem prontamente tais fenómenos ao facto de os sistemas de inteligência artificial serem excessivamente restritivo ou tendencioso. No entanto, ao realizar uma investigação mais aprofundada, torna-se evidente que estas alegadas manifestações ilusórias são meramente um resultado da falta de competência da tecnologia subjacente, e não de qualquer manipulação deliberada por indivíduos intelectualmente avançados.
Felizmente, um juiz em Washington reconheceu que esta tecnologia não é capaz de produzir uma imagem mais nítida. Embora seja provável que existam numerosos outros juízes nos Estados Unidos que foram arrebatados pela excitação em torno da inteligência artificial e não compreendem totalmente as suas ramificações. Em última análise, é apenas uma questão de tempo até que um vídeo aumentado por IA seja apresentado como prova num processo judicial, apesar de conter apenas informações visuais que foram posteriormente adicionadas.
*️⃣ Link da fonte:
NBC News , em 2021, Topaz Labs ,