bizi | 26.01.24
Com tanto crescimento e adesão, já era previsível que as IAs iam passar também por algumas (ou muitas) más interpretações pelo caminho. Só essa semana, foram duas:
No início desta semana, nos EUA, começou uma investigação sobre uso de IA que pegou a voz de Joe Biden (sim, o presidente) em ligações falsas.
Longe de ser um trote inocente, as ligações em questão usaram o recurso para tentar desencorajar a participação de democratas na primeira fase das eleições norte-americanas.
Graças ao identificador de chamadas, a investigação descobriu que a ligação partiu de um candidato democrata de Nova Hampshire. Mas, aparentemente, a origem foi falsificada.
De acordo com os investigadores, essa é “tentativa ilegal de perturbar as eleições (…) e suprimir os eleitores”.
Do lado de lá, um porta-voz da campanha de Donald Trump contou à NBC News que não há qualquer envolvimento da equipe do republicano nas ligações.
Enquanto isso, na OpenAI, outro uso não previsto para as IAs já começa a incomodar. Depois de diversas questões internas, o desafio da empresa agora é barrar os chatbots orientados para romance.
Parece coisa de filme sci-fi? E é. Mas está se tornando realidade mais rápido do que prevíamos.
“Conforme relatado pelo Quartz na semana passada, esses chatbots, que não deveriam existir segundo as diretrizes da OpenAI, estão se tornando cada vez mais presentes na plataforma.”
— Exame
Vale lembrar que a empresa já removeu iniciativas nesse sentido no passado. Mas, claramente, isso não impediu que essas IAs continuassem aparecendo.
Além de combater as novas investidas, a OpenAI também encontra dificuldade de separar os “conteúdos sexuais criados para fins científicos ou educacionais”, uma exceção no tema dos conteúdos sexualmente explícitos.
Enfim, mais um obstáculo na vida das IAs.
Confira nossos outros conteúdos