Fique por dentro das últimas "notícias sobre IA" em All Things IT @AI
Agentes de codificação de IA da OpenAI, Anthropic e Google agora podem trabalhar em projetos de software por horas a fio, escrevendo aplicativos completos, executando testes e corrigindo bugs com supervisão humana. Mas estas ferramentas não são magia e podem complicar e não simplificar um projeto de software. Compreender como elas funcionam nos bastidores pode ajudar os desenvolvedores a saber quando (e se) usá-las, evitando armadilhas comuns.
Começaremos com o básico: no cerne de cada agente de codificação de IA está uma tecnologia chamada modelo de linguagem grande (LLM), que é um tipo de rede neural treinada em vastas quantidades de dados de texto, incluindo muito código de programação.
A maior biblioteca de domínios públicos do mundo—que está cada vez mais financiada por desenvolvedores de IA—chocou a Internet neste fim de semana ao anunciar que havia “realizado o backup do Spotify” e começou a distribuir 300 terabytes de metadados e arquivos de música em torrents em massa.
De acordo com Anna’s Archive, a coleta de dados representa mais de 99 por cento das reproduções no Spotify, tornando-se “o maior banco de dados publicamente disponível de metadados de música com 256 milhões de faixas”.
Uma onda de indignação online surgiu nesta semana após um proprietário de uma TV LG alegar que uma atualização de firmware instalou um software de inteligência artificial generativa impossível de remover em sua smart TV.
A controvérsia começou no sábado, quando um usuário do Reddit publicou sobre o aparecimento repentino de um ícone do Microsoft Copilot em seu dispositivo (algo com o qual os usuários do Windows estão mais do que familiarizados).
Houve uma série de casos notórios em que artigos científicos tiveram que ser retratados devido ao conteúdo gerado por inteligência artificial de baixa qualidade – o mais recente ocorreu há apenas duas semanas. Essas ocorrências levantam sérias questões sobre a qualidade da revisão por pares em algumas revistas — como alguém permitiu uma figura com termos como “runctitional”, “fexcectorn” e “frymblal”, especialmente considerando que o ‘m’ em frymblal possui uma crista extra?
Por grande parte da história da fotografia, aproximadamente 200 anos, alterar uma fotografia de forma convincente exigia ou uma câmara escura, alguma perícia no Photoshop, ou, no mínimo, uma mão firme com tesoura e cola. Na terça-feira, a OpenAI lançou uma ferramenta que reduz o processo a digitar uma frase.
Não é a primeira empresa a fazê-lo. Embora a OpenAI estivesse trabalhando em um modelo de edição de imagens conversacional desde o GPT-4o em 2024, o Google superou a OpenAI no mercado em março com um protótipo público, e depois o refinou em um modelo popular chamado modelo de imagem Nano Banana (e Nano Banana Pro).
Tal como a maioria das ferramentas, os modelos de IA generativa podem ser utilizados de forma inadequada. E quando essa utilização inadequada se torna suficientemente grave para que um dicionário importante tome nota, você sabe que se tornou um fenômeno cultural.
No domingo, a Merriam-Webster anunciou que “slop” é a Palavra do Ano de 2025, refletindo como o termo se tornou uma forma abreviada para a inundação de conteúdo gerado por IA de baixa qualidade que se espalhou pelas redes sociais , resultados de pesquisa e a web em geral.