Notícias

Formula E e Google Cloud unem forças por áudio descritivo

Fórmula E e Google Cloud Lançam Áudio Descritivo para Fãs com Deficiência Visual

Durante o Google Cloud Summit em Londres, o CEO da Fórmula E, Jeff Dodds, anunciou uma nova iniciativa para proporcionar uma experiência mais inclusiva para fãs com deficiência visual. O projeto utiliza a tecnologia de inteligência artificial generativa da Google Cloud para criar áudios descritivos em diversos idiomas que resumem cada corrida da Fórmula E.

Esses resumos em formato de áudio estarão disponíveis logo após o término de cada corrida, oferecendo um relato dinâmico que captura os momentos mais emocionantes e fundamentais das competições.

A ideia para esse projeto surgiu durante um hackathon da Google Cloud realizado no evento da Fórmula E, o E-Prix de Londres, em 2024. A iniciativa está sendo desenvolvida em parceria com o Royal National Institute of Blind People (RNIB) para garantir que atenda adequadamente às necessidades dos usuários com deficiência visual. Juntas, a Fórmula E e a Google Cloud planejam realizar grupos focais e testes de usuários durante as próximas corridas em Berlim e Londres, com a intenção de lançar o recurso na 12ª temporada da Fórmula E.

Jeff Dodds, CEO da Fórmula E, ressaltou a importância dessa tecnologia, afirmando que o entusiasmo das corridas elétricas deve estar acessível a todos. Ele destacou a colaboração com a Google Cloud como um exemplo de como a tecnologia pode ser utilizada para criar novas formas de vivenciar o esporte.

John Abel, diretor da Google Cloud, acrescentou que a natureza visual do automobilismo muitas vezes impede que fãs com deficiência visual possam apreciar as corridas. Ele informou que a tecnologia de IA da Google atuará como uma contadora digital de histórias, criando uma narrativa sonora que trará à vida a velocidade, estratégia e emoção da Fórmula E.

Sonali Rai, responsável pela área de mídia e tecnologia imersiva do RNIB, comentou que a descrição em áudio revoluciona a forma como fãs com deficiência visual podem vivenciar as corridas. Rai destacou a importância de trabalhar diretamente com a comunidade de deficientes visuais para desenvolver essa ferramenta, chamando essa abordagem de exemplo a ser seguido por outros esportes na busca por mais inclusão.

Como Funciona a Tecnologia:

A criação dos relatórios em áudio se dá através de um processo que utiliza a plataforma de IA da Google Cloud, conhecido como Vertex AI. O processo é dividido em três etapas principais:

  1. Transcrição: O modelo Chirp da Google transcreve com precisão os comentários ao vivo da corrida.

  2. Análise e Geração: Os modelos Gemini da Google analisam os comentários transcritos juntamente com dados de tempo real e outras informações oficiais da corrida. Dessa forma, o áudio descreve eventos principais, como ultrapassagens, incidentes e paradas estratégicas, gerando um resumo atraente e baseado em fatos.

  3. Produção de Áudio: O texto resultante é convertido em uma fala natural e expressiva utilizando tecnologia avançada de conversão de texto em fala, criando um relatório polido pronto para ser disponibilizado.

Todo esse processo é concluído poucos minutos após o término da corrida. Os resumos de áudio estarão acessíveis globalmente em plataformas populares, como o Spotify, em mais de 15 idiomas, incluindo inglês, espanhol, francês, alemão, mandarim e árabe.

Artigos relacionados

Botão Voltar ao topo