O GPT-4o: o novo ChatGPT que combina texto, áudio e imagem para interações mais realistas e eficientes. Nova ferramenta pode revolucionar o mercado.
O GPT-4o é a nova versão do ChatGPT, anunciada pela OpenAI na última segunda-feira (13). Esse modelo de inteligência artificial (IA) é mais poderoso que seus antecessores, entregando respostas mais rápidas e precisas.
Além disso, o GPT-4o é capaz de interagir com os usuários por mensagem de voz e até reconhecer expressões faciais, tornando a experiência mais próxima de uma conversa entre humanos. Disponível para todos os planos, incluindo os gratuitos, com algumas limitações, o GPT-4o promete revolucionar a forma como interagimos com a IA.
O que é o GPT-4o? O que significa “omni”?
O GPT-4o é a nova versão do modelo de IA desenvolvido pela OpenAI, capaz de conversar com os internautas como se fosse um humano. Seu nome vem de “ChatGPT 4 Omni”, onde “omni” é um radical de origem latina que significa “tudo”. Em português, ele aparece como o prefixo “oni”, como nas palavras “onisciente” (ciente de tudo) ou “onívoro” (que come qualquer tipo de comida).
Até agora, os usuários gratuitos do ChatGPT só tinham acesso ao modelo GPT 3.5, que conseguia apenas responder comandos por texto e não é atualizado desde janeiro de 2022. Já os assinantes do ChatGPT Plus e Teams já podiam usar o GPT-4, com recursos extras, como acesso a dados da Internet e a possibilidade de gerar imagens a partir de comandos de texto.
Veja mais sobre: Chat GPT começará a DAR AULAS em escolas estaduais?
GPT-4o x GPT-4: quais são as diferenças?
Como sucessor, era esperado que o GPT-4o superasse a capacidade de raciocínio e interação do GPT-4. O novo modelo é capaz de entender diferentes tipos de comando – como texto, áudio e imagem – e também pode utilizar uma combinação destes formatos para responder. Na prática, o usuário poderá manter uma conversa com o chatbot de forma mais parecida a uma entre duas pessoas, inclusive mostrando elementos do ambiente para o ChatGPT.
Modelos anteriores dependiam de diferentes ferramentas para analisar texto, imagens e áudio, como extensões para navegadores ou GPTs personalizadas por usuários. O GPT-4o, contudo, foi treinado para processar todos os formatos em uma só rede neural. Outra diferença do novo modelo em comparação aos anteriores é a rapidez em que consegue processar os comandos de voz. Em média, o GPT-4 é capaz de responder a estas entradas em 320 milissegundos, tempo parecido com o que uma pessoa leva para responder em uma conversa.
Tudo que o GPT-4o é capaz de fazer
A principal inovação do GPT-4o é a capacidade de processar diferentes formatos e responder rapidamente aos comandos. Nos vídeos de apresentação, fica clara a habilidade de conversação da ferramenta. Em um deles, duas pessoas brincam de “Pedra, Papel e Tesoura” e o chatbot consegue dizer quem venceu a partida ou se foi um empate. Em outro vídeo, a ferramenta comenta sobre a camiseta que o rapaz estava usando, sem receber qualquer comando para isso. Ou seja, o GPT-4o consegue “enxergar” o que acontece no “mundo real” e utilizar esta informação para interagir numa conversa por conta própria.
Além de conseguir interagir com diferentes elementos, as reações da IA também simulam com eficiência as de um humano. Nos vídeos, é possível ver que o chatbot dá risada em momentos oportunos, demonstra surpresa, faz elogios precisos e ainda muda o tom de voz para falar com um bichinho de estimação. As interações do GPT-4o são tão realistas que, nas redes sociais, usuários compararam o chatbot com o software do filme “Ela” (“Her”, no título original), em que o protagonista (Joaquin Phoenix) se apaixona por uma inteligência artificial.
GPT-4o será gratuito?
De acordo com a OpenAI, o GPT-4o será disponibilizado para todos os usuários do ChatGPT, incluindo os que não assinam nenhum plano pago. Neste caso, contudo, a interação terá um limite de mensagens, que ainda não foi divulgado. Ao que tudo indica, os usuários dos planos pagos também terão um limite para o uso da ferramenta, mas a disponibilidade será cinco vezes maior do que a do plano grátis. Além disso, usuários do plano Plus terão acesso ao GPT-4o em primeira mão.
Vale ressaltar que o ChatGPT oferece três possibilidades de assinatura para os usuários. O primeiro é o gratuito, que, atualmente, concede acesso ao GPT-3.5. O plano Plus custa $ 20 por mês (cerca de R$ 102) e é alimentado pelo GPT-4, DALL·E e outras ferramentas exclusivas. Já o plano Team custa $ 25 (cerca de R$ 128) por mês por pessoa e conta com maior limite de mensagens, além de recursos administrativos para gerenciar os conteúdos da sua equipe.
GPT-4o tem sentimentos?
Por mais que as reações do GPT-4o sejam muito parecidas com as de uma pessoa de verdade, é seguro dizer que o chatbot não tem sentimentos. As inteligências artificiais conversacionais, como o ChatGPT, são treinadas com uma imensa quantidade de dados para que sejam capazes de compreender e até simular emoções humanas, mas isso não significa que conseguem, de fato, senti-las. Ou seja, para essas ferramentas, os sentimentos humanos não passam de dados que elas devem processar para dar uma resposta mais efetiva.
Já existe um debate em torno de relacionamentos entre pessoas e robôs com IA. O aplicativo Replika, por exemplo, tem sido usado para que usuários criem “parceiros românticos” personalizados, levantando uma discussão sobre traição virtual. Outras pessoas procuram tecnologias semelhantes para “servir de confidente”, criando um laço de amizade. No entanto, é importante ter em mente que as inteligências artificiais são apenas máquinas e, por isso, não conseguem ter sentimentos humanos.
Quando o GPT-4o vai estar disponível?
O GPT-4o será disponibilizado gradualmente para os usuários do ChatGPT. De acordo com a OpenAI, as funções de texto e imagem do GPT-4o começaram a ser implementadas já na última segunda-feira (13). Além disso, nas próximas semanas, uma nova versão do Modo de Voz alimentado pelo GPT-4o ficará disponível em fase alpha para usuários do ChatGPT, uma etapa inicial de lançamento que ainda precisa de mais testes.
A empresa informou ainda que os desenvolvedores poderão acessar o GPT-4o na API como um modelo de texto e visão, já que esta tecnologia é mais rápida e mais barata do que a usada atualmente, o GPT-4 Turbo. Também nas próximas semanas, a OpenAI deve lançar um suporte para as novas capacidades de áudio e vídeo, inicialmente exclusivo para um pequeno grupo de parceiros.
Não deixe de conferir: ChatGPT – 5 comandos que você PRECISA conhecer