O TikTok permitiu brevemente que os usuários criassem vídeos polêmicos gerados por IA

Resumo

  • O recurso Symphony Avatars do TikTok permite que empresas e marcas criem anúncios totalmente personalizados usando apenas IA generativa.
  • Um repórter da CNN descobriu que um recurso relacionado do Symphony Assistant não tinha nenhuma proteção ou medida de segurança, enquanto os vídeos gerados dessa forma também não tinham marca d’água.
  • Desde então, o TikTok resolveu o problema, considerando-o um erro técnico e garantindo aos usuários que vídeos prejudiciais de IA nunca teriam chegado à plataforma devido às suas rígidas políticas de conteúdo.




A IA generativa é amplamente utilizada em todo o mundo da tecnologia, e o TikTok não é exceção. A plataforma anunciou Symphony Avatars pela primeira vez no mês passado como parte de seu “suíte Creative AI”, permitindo que empresas, marcas e criadores criem anúncios totalmente personalizados usando IA generativa e imagens de atores pagos (avatares). Esse recurso foi lançado no início desta semana, mas apenas para pessoas com uma conta do TikTok Ads Manager. No entanto, parece que esta limitação não foi implementada por um breve período, com um repórter da CNN obtendo acesso a uma das ferramentas Symphony AI usando sua conta pessoal. Isso fez com que o repórter não encontrasse praticamente nenhuma proteção ou proteção nesta ferramenta de IA.


Relacionado

Tudo o que você precisa saber sobre a proibição do TikTok nos EUA

Por dentro do esforço de anos dos EUA para proibir a plataforma de vídeos curtos favorita de todos

A ferramenta em questão, conhecida como Assistente Sinfônico, foi descoberto pelo repórter de tecnologia da CNN Jon Sarlin, que supostamente conseguiu acessá-lo com sua conta padrão do TikTok. Mas, para grande surpresa de Sarlin, esse recurso generativo de IA poderia ser usado para criar um vídeo de aparência convincente sobre praticamente qualquer assunto usando um dos muitos atores. Bastava o repórter selecionar um avatar e inserir um roteiro de sua preferência, conforme mostrado abaixo.

Uma captura de tela do Symphony Assistant do TikTok em ação pela CNN


Sarlin revelou alguns exemplos de vídeos criados usando o Symphony Assistant no X/Twitter, incluindo a ferramenta recitando completamente a “Carta à América” ​​de Osama bin Laden (via The Verge). Para piorar a situação, nenhum desses vídeos tinha uma marca d’água para indicar que foram gerados por IA, o que significa que tais vídeos poderiam ser considerados pelo valor nominal por usuários desavisados ​​do TikTok se fossem publicados na plataforma.


TikTok diz que resolveu o problema

Quando a CNN entrou em contato com o TikTok sobre esses vídeos, um porta-voz da empresa chamou isso de “um erro técnico”, acrescentando que já foi corrigido. O porta-voz também deixou claro que tais vídeos nunca teriam aparecido na plataforma devido às suas rígidas políticas de conteúdo. Aqui está a declaração completa do TikTok à CNN:


“Um erro técnico, que agora foi resolvido, permitiu que um número extremamente pequeno de usuários criasse conteúdo usando uma versão de teste interno da ferramenta por alguns dias. Se a CNN tivesse tentado enviar o conteúdo prejudicial que criou, esse conteúdo teria foi rejeitado por violar nossas políticas, o TikTok é líder do setor na criação responsável de AIGC e continuaremos a testar e desenvolver as mitigações de segurança que aplicamos a todos os produtos TikTok antes do lançamento público.

Ao que parece, o TikTok acidentalmente enviou essa “versão de teste interno” da ferramenta de IA para todos os seus usuários, e não para alguns selecionados. Felizmente, a CNN conseguiu sinalizar o problema a tempo, fazendo com que o TikTok apertasse o botão de pausa. A empresa de propriedade da ByteDance não disse se o Symphony Assistant voltaria tão cedo, embora a declaração da empresa deixe claro que não irá parar de testar novos recursos de IA.

Esta não é a primeira incursão do TikTok na IA e provavelmente não será a última. Mas dado que está entre os aplicativos de mídia social mais usados ​​nos EUA, os reguladores provavelmente não ficarão muito satisfeitos com este episódio, especialmente considerando os esforços contínuos para proibir o aplicativo.