No atual cenário onde a Inteligência Artificial está a transformar as formas de trabalhar, a precisão factual permanece como o principal desafio dos modelos de linguagem mais avançados.

A Contextual AI, uma startup inovadora criada por verdadeiros pioneiros da tecnologia RAG (Retrieval Augmented Generation), acaba de causar um impacto significativo no setor empresarial ao lançar o seu Grounded Language Model (GLM).

Este novo Modelo de Linguagem Fundamentado ou Baseado em Evidências não promete apenas, mas efetivamente demonstra superioridade face a Gigantes tecnológicos como o GPT-4o da OpenAI, o Claude 3.5 Sonnet da Anthropic e o Gemini 2.0 Flash do Google em termos de precisão factual.

As implicações são muitas, pois estamos perante um avanço tecnológico que redefine completamente os padrões da IA em contextos empresariais exigentes.

A Nova Referência em Precisão Factual: GLM da Contextual AI Estabelece Novos Recordes

A Contextual AI é uma empresa que cria modelos de IA que entendem o contexto das tuas interações de forma mais profunda.

A Contextual AI apresentou oficialmente o seu GLM a 4 de março de 2025, com resultados que revolucionam o mercado da IA. Segundo o respeitado benchmark FACTS, amplamente reconhecido como o padrão definitivo para avaliação da veracidade factual dos modelos de IA, o GLM alcançou uma precisão sem precedentes de 88,0%.

Esta marca estabelece uma nova referência na indústria, como podemos observar na comparação direta com os principais concorrentes:

Modelo Empresa Precisão FACTS
GLM Contextual AI 88,0%
Gemini 2.0 Flash Google 85,3%
Claude 3.5 Sonnet Anthropic 81,9%
GPT-4o OpenAI 78,2%

Uma análise aprofundada destes resultados, meticulosamente documentada no blog oficial da Contextual AI, revela que o GLM não apenas supera a concorrência, mas também oferece uma solução definitiva para um dos problemas mais críticos da IA, que são as alucinações, isto é, respostas elaboradas que podem ter consequências catastróficas em ambientes empresariais onde a precisão é fundamental.

Como enfatiza Douwe Kiela, CEO e cofundador da Contextual AI, “Em setores altamente regulados, a tolerância para alucinações é simplesmente zero. A nossa abordagem foi desenvolvida precisamente para eliminar este risco inaceitável.”

O Que Torna o GLM Único?

Ao contrário de modelos de linguagem generativos pré-treinados como o ChatGPT, que foram criados para processar linguagem natural e criar respostas em conversas, textos criativos e até código, o GLM está otimizado para ambientes onde a precisão é inegociável, como finanças, medicina, direito, entre outros.

A sua tecnologia baseia-se na fundamentação, um conceito que assegura que as respostas se limitem estritamente à informação fornecida, sem inventar nem assumir.

Por exemplo, se deres ao GLM uma tese com a advertência de que “isto só é verdade na maioria dos casos“, ele não te dará uma resposta genérica como os outros modelos. Em vez disso, ele reconhecerá a limitação e ajustará a sua resposta. Pelo que, o GLM é como um companheiro que diz que não sabe quando não tem a certeza e isso é ouro numa empresa.

RAG 2.0: A Evolução da Recuperação Inteligente

O GLM utiliza uma tecnologia chamada RAG 2.0, uma melhoria potente da Retrieval Augmented Generation (RAG), um conceito que Douwe Kiela, CEO da Contextual AI, ajudou a criar.

Mas, o que faz com que o RAG 2.0 seja tão especial?

Enquanto o RAG tradicional é como montar um puzzle com peças genéricas que nem sempre encaixam perfeitamente, o RAG 2.0 é um sistema desenhado de raiz para trabalhar em harmonia.

Vamos passo a passo:

  • Recuperação Inteligente: Não se lança a procurar às cegas. Primeiro, o GLM analisa a tua pergunta e pensa no que precisa para responder bem à mesma, depois, planeia onde e como encontrar a informação mais útil, quer seja em documentos, bases de dados ou gráficos.
  • Reclassificação de Dados: Aqui entra em jogo o que Kiela chama “o melhor reclassificador do mundo“, o GLM revê todos os dados e diz o que é mais importante e o que pode esperar. Assim sendo, o GLM foca-se apenas no que realmente importa para a tua resposta.
  • Criação Fundamentada: Com a informação correta, o GLM escreve uma resposta precisa e de acordo com os factos, sem inventar nem divagar. É como um escritor que só usa as notas que tem à frente, assegurando-se de não meter o pé na poça.

Vamos a um exemplo, porque com exemplos tudo se entende melhor, se lhe perguntares “Qual é a política de devolução desta empresa?“, o RAG 2.0 primeiro procura os termos e condições de venda e reembolso (Termos), descarta parágrafos irrelevantes, prioriza a secção exata sobre devoluções e dá-te uma resposta clara, por exemplo, “São 30 dias, mas só se o produto estiver por abrir.” Nada de suposições nem dados inventados.

Ao contrário dos sistemas RAG tradicionais, que juntam partes genéricas como incrustações (para procurar), bases de dados vetoriais (para armazenar) e modelos de linguagem (para escrever) e às vezes acabam por ser um “monstro de Frankenstein” cheio de falhas, o RAG 2.0 otimiza todo o processo de ponta a ponta.

Como explica Kiela, “Não se trata de ligar peças soltas, mas sim de construir algo que funcione como um todo“.

E o resultado são respostas mais rápidas, confiáveis e sem os erros típicos das IA que improvisam.

Para Além do Texto, Uma IA que Vê e Entende o Mundo Real

O GLM da Contextual AI não é apenas um leitor de texto, devido ao seu design avançado, tem a capacidade de trabalhar com conteúdo multimodal, o que significa que não só entende palavras escritas, como também entende gráficos, diagramas, imagens e dados organizados em tabelas provenientes de ferramentas como BigQuery, Snowflake, Redshift e Postgres.

Em poucas palavras, ele pode lidar tanto com a informação caótica e desordenada (como notas rabiscadas num documento) como com os dados super organizados (como listas de números numa base de dados). É como se tivesse olhos para “ver” e um cérebro para conectar todas as peças.

E podes estar a perguntar-te, porque é que isto é tão importante?

Porque no mundo real das empresas, a informação nem sempre chega em forma de parágrafos perfeitos. Muitas vezes, tem-se uma confusão de dados que mistura texto, imagens e tabelas e que precisa de uma IA que possa juntar a entender tudo sem se perder qualquer informação.

Os desafios mais interessantes e valiosos estão precisamente onde se cruzam todos esses tipos de dados. Para que vejas claramente, aqui tens alguns exemplos:

Numa empresa de chips, imagina que um engenheiro precisa de saber porque é que uma máquina está a falhar. O GLM pode “olhar” para um diagrama de circuitos (uma imagem cheia de linhas, símbolos e ligações) e ao mesmo tempo rever os dados de produção (uma tabela com números sobre quantas peças foram feitas e quantas falharam), depois de analisar, diz-te exatamente em que circuito está o problema e justifica com os dados. Sem o GLM, ter-se-ia de fazer toda essa análise à mão ou usar várias ferramentas separadas.

Outro exemplo, pensa num gerente que quer entender um aumento estranho nas despesas, o GLM agarra no relatório financeiro (com gráficos que mostram tendências) e combina-o com os registos de transações (uma base de dados com cada pagamento detalhado) e m segundos, explica-te a que diz respeito o pico de despesas, por exemplo, se vem de uma encomenda grande feita na semana passada, como visualizou isso no gráfico e na linha da base de dados. Os outros modelos poderiam apenas ler o texto do relatório e perder o contexto completo.

Só mais um exemplo, um médico poderia dar ao GLM um historial médico com notas escritas à mão e um gráfico dos níveis da pressão arterial do paciente (uma imagem). O GLM une tudo e informa o médico do motivo que levou a pressão a subir, por exemplo, depois de uma mudança na medicação e justifica com o texto da nota e a curva no gráfico.

Esta capacidade do GLM torna-o super útil em empresas onde a informação chega em pedaços e formatos distintos, por exemplo desde plantas técnicas até relatórios financeiros ou processos médicos.

E enquanto outros modelos de IA ficam aquém se nem tudo estiver em texto puro, o GLM está programado para decifrar esse puzzle e dar respostas claras.

Como acrescenta Kiela, é como ter um assistente que não só lê, como também vê e entende como tudo se encaixa. Desde analisar visualizações complexas até resolver problemas técnicos, o GLM está pronto para brilhar onde a maioria simplesmente não consegue acompanhar o ritmo.

O Futuro da IA Empresarial Já Chegou

O GLM da Contextual AI, com a sua fundamentação rigorosa, tecnologia RAG 2.0 e capacidades multimodais avançadas, não está simplesmente a prever o futuro da IA empresarial, está a construí-lo.

Em setores críticos onde a margem de erro tem de ser praticamente inexistente, como medicina, direito e manufaturação, onde cada falha pode, respetivamente, resultar em perdas de vidas humanas em contextos médicos, prejuízos financeiros de milhões em litígios e paralisações completas de linhas de produção com custos inimagináveis, o GLM está a demonstrar o seu valor inestimável como parceiro estratégico.

Os benefícios não são promessas futuras, mas realidades presentes, por exemplo, os médicos estão a utilizar o GLM para analisar milhares de estudos médicos em minutos, de forma a obter ajudar para salvarem vidas diariamente, os escritórios de advogados confiam no GLM para identificar jurisprudência com matérias de facto e de direito semelhantes às do caso em que estão a trabalhar de forma a ganharem o mesmo e os engenheiros utilizam o GLM para prever falhas em sistemas complexos.

E se estas capacidades já impressionam hoje, o amanhã promete avanços ainda mais extraordinários, como por exemplo, hospitais equipados com o GLM capazes de fornecer diagnósticos com precisão em poucos minutos, escritórios de advogados com capacidade de rever documentos com zero riscos de omissão ou interpretação errónea e empresas capazes de antecipar problemas críticos com dias ou semanas de antecedência.

Contextual AI no Google Cloud

A 26 de fevereiro de 2025, a Contextual AI expandiu o seu alcance através de uma parceria com o Google Cloud, criando uma solução para desafios empresariais específicos.

Esta parceria permite implementar IA com confiança em setores exigentes, pois foi programada para atender às necessidades rigorosas de precisão e fiabilidade das empresas.

Devido à sua capacidade de compreender documentos altamente técnicos e específicos, incluindo texto, gráficos e imagens, quer seja para atendimento ao cliente, preparação de relatórios financeiros ou investigação científica, e devido à sua capacidade de dar respostas precisas, com citações de factos específicos, eliminando completamente o risco de alucinações, a Contextual AI multiplica a produtividade e a inovação de qualquer equipa.

Poder Total no Snowflake

A 6 de março de 2025, a uma novidade que vai agradar os responsáveis por segurança de dados é que a Contextual AI anunciou a disponibilização da sua plataforma como aplicação nativa no Snowflake Marketplace.

Esta integração permite construir e implementar agentes RAG especializados diretamente no ambiente Snowflake, sem necessidade de mover dados para fora do sistema.

Esta é uma solução direta para um dos maiores obstáculos na implementação de IA nas empresas, que é a segurança. Normalmente, as revisões de segurança para sistemas de IA podem atrasar projetos durante meses.

Com esta integração, todos os dados permanecem no seu lugar, protegidos pela arquitetura robusta de segurança do Snowflake.

A aplicação nativa permite que os dados nunca saiam do ambiente Snowflake, poder aproveitar os controlos de segurança existentes, o processo de aquisição é simplificado e a escalabilidade é automática devido à infraestrutura elástica do Snowflake.

Com esta integração, as empresas podem agora implementar IA em dias, não meses, para tal só têm de instalar a plataforma diretamente do Snowflake Marketplace, conectar às fontes de dados empresariais e começar a criar agentes RAG especializados.

O Primeiro Reranker do Mundo que Segue as Tuas Instruções

Enquanto o GLM já impressiona com a sua precisão factual, a Contextual AI acabou de lançar, a 11 de março de 2025, o primeiro Reranker do mundo capaz de seguir instruções personalizadas.

Este Reranker permite-te dizer à IA exatamente como priorizar informações, seja por tipo de documento, fonte, metadados ou atualidade e obter resultados mais precisos do que nunca.

O Reranker da Contextual AI destaca-se por uma capacidade única, que consiste em dar-lhe instruções em linguagem natural, como “Prioriza os documentos internos de vendas sobre os relatórios do mercado” ou “Dá mais peso aos documentos mais recentes“, ele ouve e ajusta os resultados em tempo real.

Esta capacidade de seguir instruções é essencial para resolver um dos maiores desafios do setor empresarial, que é a gestão de informações contraditórias. Quando as notas de diferentes trimestres se contradizem, o Reranker da Contextual AI sabe exatamente quais priorizar, seguindo as tuas instruções específicas.

Vamos ver como funciona na prática com um exemplo, temos uma base de dados com documentos mistos e perguntamos “Qual é a previsão mais recente para o mercado?“. Um Reranker tradicional pode devolver uma lista confusa, onde mistura análises antigas com novas. Já o da Contextual AI, com instruções como “Foca-te nas previsões mais recentes de fontes de confiança“, analisa, classifica e entrega-te apenas o que importa. É como ter um assistente que não só pesquisa, mas também pensa como tu.

Em benchmarks padrão da indústria como o BEIR, o Reranker da Contextual AI supera todos os concorrentes, especialmente em tarefas de alto valor como:

  • Raciocínio multi-etapas (HotpotQA)
  • Domínio financeiro (FiQA)
  • Literatura científica (SCIDOCS e SciFact)
  • Verificação de factos (FEVER e ClimateFEVER)

Um caso de sucesso notável é a ClaimWise, uma solução de IA para validação de patentes, que substituiu o Reranker anterior pelo da Contextual AI devido ao desempenho superior.

O melhor? Podes experimentá-lo já hoje mesmo através da API Contextual AI.

Com este Reranker, a Contextual AI eleva a IA a um nível de personalização e precisão que os modelos tradicionais simplesmente não conseguem igualar

Esta É a IA que as Empresas Realmente Precisam

Com a Contextual AI estamos a presenciar uma transformação da nossa sociedade, a IA de precisão absoluta está a tornar-se um pilar absolutamente imprescindível nas empresas, está a eliminar completamente os riscos operacionais e está a elevar a eficiência a patamares anteriormente inimagináveis.

O futuro empresarial está aqui, vais agarrá-lo?

Proudly powered by WordPress

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *