• MENU
    • Programação
    • Mercado & Beyond
    • Mercado Internacional
    • Investimentos
    • Economia
    • Economia POP
    • Mercados
    • Opinião
    • Educação
    • Vídeos
  • Anuncie na BM&C NEWS
  • Fale conosco
  • Política de Privacidade
  • Termos de uso
  • Sobre a BM&C NEWS
domingo, setembro 14, 2025
Bm&c news
728x90
  • AO VIVO 🔴
  • MERCADOS
  • Negócios
  • Análises
  • Economia
    • Investimentos
  • Gastronomia
Sem resultado
Veja todos os resultados
  • AO VIVO 🔴
  • MERCADOS
  • Negócios
  • Análises
  • Economia
    • Investimentos
  • Gastronomia
Sem resultado
Veja todos os resultados
BM&C NEWS
Sem resultado
Veja todos os resultados
  • AO VIVO 🔴
  • MERCADOS
  • Negócios
  • Análises
  • Economia
  • Gastronomia
Início Tecnologia

Por que os novos, ChatGPT o3 e o4-mini estão ‘alucinando’ mais? Entenda o risco!

Por Ryan Cardoso
23 de abril de 2025
Em Tecnologia, ÚLTIMAS NOTÍCIAS
A pergunta de um milhão de dólares! O ChatGPT está nos emburrecendo?

ChatGPT - Créditos: depositphotos.com / rafapress

EnviarEnviarCompartilhar

Recentemente, a OpenAI lançou novos modelos de inteligência artificial, denominados o3 e o4-mini, com foco em raciocínio avançado. Esses modelos foram projetados para realizar tarefas complexas, como programação e navegação na web, além de gerar imagens de forma autônoma. No entanto, testes internos revelaram que esses modelos apresentam uma taxa de alucinações significativamente maior em comparação com seus antecessores.

O termo “alucinações” refere-se a respostas geradas por modelos de IA que, embora pareçam coerentes, contêm informações incorretas ou inventadas. Este fenômeno tem sido um desafio constante na evolução dos modelos de IA, e os novos modelos da OpenAI não são exceção. A taxa de alucinações dos modelos o3 e o4-mini é quase o dobro da registrada pelo modelo o1, conforme os dados da avaliação PersonQA.

Por que os Modelos de IA Alucinam?

As alucinações em modelos de IA ocorrem devido à forma como esses sistemas processam e geram informações. Eles são treinados em vastos conjuntos de dados e, ao tentar responder a perguntas, podem extrapolar ou inventar informações que não são precisas. Este problema é mais pronunciado em modelos menores, como o o4-mini, que, apesar de terem mais conhecimento do mundo, tendem a alucinar mais.

O modelo o3, por exemplo, apresentou uma taxa de alucinações de 33% nas avaliações do PersonQA, enquanto o o4-mini alcançou 48%. Isso indica que, embora esses modelos sejam capazes de fornecer respostas mais complexas, também estão mais propensos a cometer erros.

Notícias Em Alta

O guia definitivo para você entender como funciona um carro automático!

O guia definitivo para você entender como funciona um carro automático!

14 de setembro de 2025
Quer acampar gastando pouco? Veja dicas para planejar sua viagem

Quer acampar gastando pouco? Veja dicas para planejar sua viagem

14 de setembro de 2025

Como a OpenAI Está Abordando o Problema?

A OpenAI está ciente dos desafios apresentados pelas alucinações em seus modelos de IA e está empenhada em investigar as causas desse problema. A empresa reconhece que a precisão e a confiabilidade são áreas de pesquisa contínua e está trabalhando para melhorar esses aspectos em todos os seus modelos.

De acordo com Niko Felix, porta-voz da OpenAI, combater as alucinações é uma prioridade. A equipe está explorando maneiras de ajustar os modelos para reduzir a frequência de informações incorretas, garantindo que as respostas sejam mais precisas e confiáveis.

Quais São as Implicações das Alucinações em IA?

Por que os novos, ChatGPT o3 e o4-mini estão 'alucinando' mais? Entenda o risco!
ChatGPT – Créditos: depositphotos.com / rokas91

As alucinações em modelos de IA têm implicações significativas, especialmente em aplicações onde a precisão é crucial. Em setores como saúde, finanças e direito, informações incorretas podem levar a decisões erradas com consequências graves. Portanto, é essencial que os desenvolvedores de IA continuem a aprimorar seus modelos para minimizar esses riscos.

Além disso, a confiança do público em tecnologias de IA pode ser afetada se as alucinações não forem controladas. Usuários esperam que os sistemas de IA forneçam informações precisas e confiáveis, e qualquer falha nesse aspecto pode comprometer a adoção e o uso dessas tecnologias.

O Futuro dos Modelos de IA e a Redução de Alucinações

O futuro dos modelos de IA depende de avanços contínuos na redução de alucinações. À medida que a tecnologia evolui, espera-se que novos métodos e técnicas sejam desenvolvidos para melhorar a precisão das respostas geradas por IA. A OpenAI e outras empresas do setor estão na vanguarda dessa pesquisa, buscando soluções inovadoras para enfrentar esse desafio.

Em última análise, o objetivo é criar modelos de IA que não apenas impressionem com suas capacidades, mas que também sejam confiáveis e precisos em suas respostas. Isso exigirá um esforço colaborativo entre pesquisadores, desenvolvedores e a comunidade em geral para garantir que a inteligência artificial continue a evoluir de maneira segura e eficaz.

Tags: ChatGPTinteligência artificialTECNOLOGIA
EnviarCompartilharCompartilharCompartilhar
Carros

O guia definitivo para você entender como funciona um carro automático!

14 de setembro de 2025
finanças

Como economizar em itens de escritório para trabalho remoto!

14 de setembro de 2025
finanças

Quer acampar gastando pouco? Veja dicas para planejar sua viagem

14 de setembro de 2025
Direitos e Benefícios

Ainda não pediu seu dinheiro de volta ao INSS? Saiba que você tem direito!

14 de setembro de 2025
  • MENU
  • Anuncie na BM&C NEWS
  • Fale conosco
  • Política de Privacidade
  • Termos de uso
  • Sobre a BM&C NEWS

Sem resultado
Veja todos os resultados
  • MENU
    • Programação
    • Mercado & Beyond
    • Mercado Internacional
    • Investimentos
    • Economia
    • Economia POP
    • Mercados
    • Opinião
    • Educação
    • Vídeos
  • Anuncie na BM&C NEWS
  • Fale conosco
  • Política de Privacidade
  • Termos de uso
  • Sobre a BM&C NEWS