Em 29 de março, a OpenAI apresentou o software Voice Engine, que usa inteligência artificial para criar vozes com base em gravações curtas de apenas 15 segundos e é capaz de ler texto. Ele também pode reproduzir fala em línguas estrangeiras, mesmo com gravações que usam apenas inglês.
O Voice Engine é desenvolvido pela OpenAI desde 2022 e foi testado com um grupo de clientes no final de 2023. Nele, o software demonstrou a capacidade de oferecer suporte à leitura, traduzir conteúdo entre diferentes idiomas e criar vozes para pessoas que perderam a capacidade de falar.

No entanto, a OpenAI também enfatizou os riscos potenciais da tecnologia de imitação de voz, especialmente no contexto das eleições presidenciais dos EUA. Essa é parte da razão pela qual eles decidiram limitar o acesso e não tornar essa tecnologia amplamente disponível.
De acordo com a empresa dona do ChatGPT, o anúncio do Voice Engine tem como objetivo incentivar gestores e o público a aumentar a vigilância contra golpes que utilizam inteligência artificial. Os desenvolvedores também alertam que criminosos podem usar software de representação de voz para roubar informações pessoais ou invadir sistemas de segurança bancários.
“É importante que as pessoas entendam para onde essa tecnologia está indo, independentemente de lançá-la amplamente ou não”, disse a OpenAI.

A tecnologia de edição de voz usando inteligência artificial ganhou atenção depois que uma gravação imitando a voz do presidente dos EUA, Joe Biden, pedindo às pessoas que "não participassem das primárias democratas de New Hampshire" viralizou nas redes sociais em janeiro.
A Pindrop Security, empresa especializada em detectar fraudes de voz, analisou a gravação e concluiu que se tratava de um deepfake usando tecnologia da ElevenLabs, startup que desenvolve softwares de inteligência artificial que geram vozes em mais de 20 idiomas.
De acordo com a revista Fortune, a voz deepfake do Sr. Biden causou preocupação entre muitos especialistas e autoridades eleitorais dos EUA, que a chamaram de "uma tentativa de interferir nas eleições com tecnologia de inteligência artificial". Algumas avaliações mostram que não só é fácil distribuir deepfakes de áudio, mas também há o risco de que pessoas mal-intencionadas usem essa tecnologia para influenciar os resultados das eleições e desencorajar os eleitores de irem às urnas.