bizi | 07.02.25
Por falar em decisões arbitrárias, o Google entrou em outra polêmica nesta semana. Enquanto autoridades e governos caminham para regularizar a inteligência artificial e minimizar seus riscos, a big tech alterou seus princípios originais sobre a IA. Agora, não existe mais a proibição de usar sua tecnologia na construção de armas.
E se você está se perguntando o que mudou, de fato, é que, antes, os princípios de IA da empresa incluíam uma seção chamada “Aplicações de IA que não buscaremos”.
Nessa seção, havia termos específicos que preveniam o uso da IA do Google para fins nocivos, como “armas ou outras tecnologias cujo objetivo principal é para machucar pessoas” ou “tecnologias cujo propósito se contrapõe aos princípios aceitáveis de leis internacionais e direitos humanos”. Mas, agora, esses trechos não existem mais.
Em declaração, os executivos James Manyika, vice-presidente do Google, e Demis Hassabis, líder do laboratório de IA Google DeepMind, afirmaram que os princípios precisavam de uma atualização.
Não que o Bizi queira ser repetitivo, mas esse “afrouxamento de regras” também tem a ver com a posse do novo presidente dos Estados Unidos.
Quem também mudou suas regras recentemente — e para pior — foi a Meta, ao encerrar o sistema de verificação de fatos de suas plataformas. Falamos sobre essa polêmica aqui.
O Google ainda diz que “não é sobre desenvolver uma IA poderosa: é sobre construir a tecnologia mais transformadora da história da humanidade”. Mas será mesmo que esse tipo de atualização nos termos contribui para essa construção?
O que achou dos novos termos da empresa?
Confira nossos outros conteúdos