Contents

Jensen Huang, da Nvidia, diz que as alucinações de IA podem ser resolvidas, a inteligência artificial geral está a 5 anos de distância

A Inteligência Artificial Geral, comumente conhecida como “IA Forte”, “IA Completa”, “IA de Nível Humano” ou “Ação Inteligente Geral”, significa um avanço extraordinário no domínio da inteligência artificial. Distinguindo-se da sua contraparte, a IA estreita, que é projetada especificamente para tarefas limitadas, como inspeção de controle de qualidade, resumo de noticiários e desenvolvimento web, a AGI possui a capacidade de realizar uma gama abrangente de atividades cognitivas iguais ou superiores às capacidades humanas. Durante seu recente discurso à mídia na conferência anual de desenvolvedores GTC da NVIDIA, o CEO da empresa, Sr. Jensen Huang, expressou evidente cansaço ao discutir o assunto-em parte devido à preocupação de ser frequentemente mal representado.

A frequência da pergunta faz sentido: o conceito levanta questões existenciais sobre o papel da humanidade e o controlo de um futuro onde as máquinas podem pensar, aprender e superar os humanos em praticamente todos os domínios. O cerne desta preocupação reside na imprevisibilidade dos processos e objectivos de tomada de decisão da AGI, que podem não estar alinhados com os valores ou prioridades humanas (um conceito explorado em profundidade na ficção científica desde pelo menos a década de 1940). Existe a preocupação de que, uma vez que a AGI atinja um certo nível de autonomia e capacidade, possa tornar-se impossível contê-la ou controlá-la, levando a cenários em que as suas ações não possam ser previstas ou revertidas.

A tendência dos meios de comunicação social para sensacionalizar questões relacionadas com a inteligência artificial pode, por vezes, criar um sentido de urgência indevido em torno do potencial desaparecimento da sociedade humana tal como a conhecemos. Infelizmente, esta abordagem pode fazer com que alguns especialistas em IA se sintam obrigados a fornecer um calendário específico para tais eventos, que muitos líderes neste campo podem preferir evitar devido à sua complexidade e incerteza.

Huang reconhece que prever o surgimento da inteligência geral avançada (AGI) depende da definição que se dá dela. Ao fazer comparações com eventos universalmente reconhecidos, como o Dia de Ano Novo e a chegada ao Centro de Convenções de San Jose com base em sinalização visível, Huang enfatiza a importância de estabelecer critérios claros para medir o progresso em direção à AGI.

Huang opina que se a inteligência artificial geral (AGI) fosse delineada como um conjunto específico de tarefas nas quais um programa de computador se destaca significativamente acima do desempenho humano, como passar em um teste de licenciamento de advogado, demonstrar domínio sobre o raciocínio lógico, exibir proficiência em economia, ou mesmo passar com louvor em um exame de admissão à faculdade de medicina, provavelmente alcançaria esse nível de competência dentro de cinco anos.

Alucinação de IA pode ser resolvida

Em resposta a uma questão colocada durante o fórum de perguntas e respostas de terça-feira, o Sr. Huang expressou a sua exasperação relativamente à questão das ilusões geradas pela IA – a inclinação de certos sistemas de inteligência artificial para produzir respostas que podem parecer plausíveis, mas carecem de fundamento em factos verificáveis. Apesar deste desafio incômodo, ele afirmou com confiança que existem soluções eficazes para mitigar tais ocorrências. Ao aderir a protocolos de investigação rigorosos e implementar medidas rigorosas de controlo de qualidade, é inteiramente viável garantir que as respostas geradas permaneçam fundamentadas em fontes credíveis e em raciocínios baseados em evidências.

Incorporando um novo protocolo denominado “geração aumentada de recuperação”, o professor Shih-Fu Chang propõe que os sistemas de inteligência artificial devem realizar pesquisas antes de fornecer respostas. Este método envolve examinar a precisão das fontes, comparando as informações com o conhecimento estabelecido e os fatos verificados. Se alguma parte da resposta for considerada incorreta ou enganosa, toda a fonte será desconsiderada e outra fonte será procurada. Ao empregar tais práticas, a IA pode melhorar a qualidade dos seus resultados através de uma investigação cuidadosa, em vez de apenas gerar respostas sem verificação.

Ao procurar informações vitais relativas a assuntos como orientação médica, pode ser prudente consultar múltiplas fontes confiáveis ​​para obter dados precisos, de acordo com o CEO da Nvidia. No entanto, para o sistema de IA que gera respostas, possuir a capacidade de reconhecer a incerteza, afirmando “Não tenho certeza sobre a resposta à sua pergunta” ou “Não é possível chegar a um acordo unânime sobre a resposta correta a esta pergunta”, também seria benéfico. Além disso, a IA poderia fornecer declarações como “o resultado do Super Bowl não foi determinado no momento.

*️⃣ Link da fonte:

explorado em profundidade na ficção científica pelo menos desde a década de 1940 ,