Agora o ChatGPT pode ajudar um deficiente visual no seu dia a dia

chagpt pode ajudar um deficiente visual

É isso mesmo que você leu. O ChatGPT agora pode ajudar pessoas cegas a atravessarem a rua, pegar um Uber, ônibus, narrar um jogo de futebol para elas, descrever lugares históricos, enfim. Parece loucura, né? Mas este é apenas um dos poderes do novo modelo, GPT-4o anunciado hoje, 13/05 pela OpenAI

A OpenAI fez uma live hoje (13/05) para demonstrar o modelo mais poderoso que eles já lançaram, o GPT-4o, e na boa, com certeza não existe nada no mercado ainda.

GPT-4o, este “ó” vem de “omni”, o que indica que o modelo é multidimensional, aceitando tanto entrada de texto como imagem, mas é claro que isso é “pouco” para o poder do GPT-4o, além dele ser tão inteligente quanto o GPT-4T Turbo, ele tem melhor visão a ainda é 50% mais barato.

Mas o deficiente visual que você comentou?

Vamos falar disso agora, o fato do GPT-4o ser tão avançado na visão e ser muito rápido nas respostas, dá a ele o super-poder de acessar o mundo real em tempo real. Sim, em tempo real ele consegue executar ações como por exemplo: descrever um carro que está em movimento e avisar o deficiente visual que o carro chegou. Demais, não é?

Eu não tenho ninguém próximo a mim que passe por problemas cotidiano por não ter a visão, mas imagino o quão sofrido pode ser e não “apenas” sofrido, mas cara, pois, um adestrar um cão para ser o seu cão guia é uma grana, já vi reportagens.

Agora imagina só o ChatGPT podendo direcionar a esta pessoa, poder dar a ela uma vida ainda mais confortável, eu diria.

Você pode tá se perguntando, tá, mas como você sabe disso? Vou compartilhar com você o link da apresentação da OpenAI, mas antes deixa eu te dizer mais alguns benefícios que este novo modelo nos trás.

  1. Pode cantar: Sim, ele pode cantar e de forma afinada viu;
  2. Pode detectar emoções: Uma respiração profunda, por exemplo;
  3. Interagir com o mundo real: O ChatGPT pode acessar a câmera do seu smartphone e descrever exatamente e com muitos detalhes, o que está se passando no mundo real;
  4. Tradução simultânea: Ele pode traduzir em tempo real o que está ouvindo, por exemplo, de inglês para português;

Enfim, esse são alguns dos novos recursos do novo modelo da OpenAI, o GPT-4o. Ah! Já ia esquecendo, a sua base de conhecimento é mais atual que a do GPT-4 Turbo, abril/2023, contra, outubro/2023.

Espero ter ajudado,

Até+

Compartilhe

Política de Privacidade

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.