Esperamos por isso por alguns dias e finalmente foi confirmado. A OpenAI acaba de anunciar o GPT-4, a nova versão de sua inteligência artificial geradora de texto, com a qual a empresa vem construindo há alguns anos uma grande imagem no meio profissional. É verdade que até à chegada do ChatGPT, as soluções OpenAI, com exceção do DALL·E 2, eram desconhecidas do público em geral, e que o chatbot é o grande responsável pela enorme importância que tiveram depois do facto, mas agora com com a chegada do GPT-3, este modelo tornou-se o assunto do setor, pois os resultados que oferece são mais do que notáveis.
A OpenAI não poupa elogios quando fala da GPT-4, que afirmam ser “ mais criativa e colaborativa do que nunca “, e a verdade é que não lhe falta razões para isso, já que esta nova versão finalmente abraça o modo multimodal, pois agora também permitirá o uso de imagens como método de entrada, algo que permitirá a criação de prompts muito mais complexos e completos feitas, que serão traduzidas em respostas que se ajustarão muito melhor ao que precisamos. E um ponto muito importante é que, quando falamos de imagens, não estamos falando apenas de fotografias, mas explicarei isso um pouco mais adiante.
330006
O ponto de partida para abordar as novidades da GPT-4 é, claro, que esta tem, nas palavras da OpenAI, um “conhecimento geral mais alargado «, algo que resultará numa maior fiabilidade das respostas fornecidas pelo modelo, atacando assim um dos principais problemas que temos encontrado, nestes tempos, com este tipo de IAs, a imprecisão em algumas respostas , especialmente em modelos como o ChatGPT, que não citam as fontes (embora aqui lhe digamos como fazê-lo).
Em desenvolvimento…
A entrada OpenAI apresenta GPT-4… e o Bing a incorpora foi publicada pela primeira vez no CLICR.