Notícias Agora

Formula E e Google Cloud lançam áudio descritivo para deficientes visuais

A Fórmula E anunciou uma colaboração com o Google Cloud para oferecer áudio descritivo das corridas, especialmente para fãs com deficiência visual. O projeto foi apresentado por Jeff Dodds, CEO da Fórmula E, durante o Google Cloud Summit em Londres. A iniciativa utiliza a tecnologia de IA gerativa do Google para criar resumos audiovisuais em vários idiomas das corridas, permitindo que os ouvintes sintam a emoção e os momentos importantes de cada E-Prix. Essas descrições estarão disponíveis logo após o término das corridas.

CONTINUA APÓS A PUBLICIDADE

A ideia surgiu durante um hackathon promovido pelo Google Cloud na corrida de Londres de 2024. Para garantir que o áudio descritivo atenda às necessidades dos deficientes visuais, a Fórmula E está desenvolvendo o projeto em colaboração com o Royal National Institute of Blind People (RNIB). Grupos de foco e testes com usuários serão realizados durante as próximas corridas em Berlim e Londres, com o lançamento completo previsto para a 12ª temporada.

Jeff Dodds destacou a importância da acessibilidade no esporte e enfatizou que a parceria com o Google Cloud é uma forma inovadora de tornar a experiência das corridas mais inclusiva. Ele afirmou que é fundamental que todos os fãs possam participar da emoção das corridas.

CONTINUA APÓS A PUBLICIDADE

John Abel, diretor da Google Cloud, também comentou sobre a iniciativa, ressaltando que a natureza visual das corridas muitas vezes impede que fãs com deficiência visual apreciem o evento. A tecnologia de IA do Google funcionará como um narrador digital, criando uma narrativa envolvente que trará à vida a velocidade e a estratégia das corridas.

Sonali Rai, do RNIB, enfatizou como a descrição em áudio pode transformar a experiência dos fãs com deficiências visuais. A equipe está colaborando com a Fórmula E e o Google Cloud para desenvolver um podcast que proporcionará uma visão completa das corridas de forma acessível e interessante.

CONTINUA APÓS A PUBLICIDADE

O processo de criação do relatório em áudio envolve três etapas principais com o uso da plataforma de IA Vertex AI do Google. Primeiro, a modelo Chirp transcreve o comentário ao vivo da corrida. Em seguida, os modelos Gemini analisam a transcrição junto com dados de tempo e informações oficiais da corrida, identificando eventos importantes como ultrapassagens e paradas estratégicas, e gerando um resumo envolvente. Por último, o texto é convertido em áudio usando tecnologia avançada de síntese vocal.

Todo esse processo é concluído rapidamente, em poucos minutos após o fim da corrida. Os relatórios em áudio estarão disponíveis em mais de 15 idiomas, incluindo inglês, espanhol, francês, alemão, mandarim e árabe, através de plataformas como Spotify e outros serviços de áudio.

CONTINUA APÓS A PUBLICIDADE

Editorial Noroeste

Conteúdo elaborado pela equipe do Folha do Noroeste, portal dedicado a trazer notícias e análises abrangentes do Noroeste brasileiro.

Artigos relacionados

Botão Voltar ao topo