Google a supprimé un engagement à ne pas construire l’IA pour les armes ou la surveillance de son site Web cette semaine. Le changement a d’abord été repéré par Bloomberg. La société semble avoir mis à jour sa page de principes d’IA publique, effaçant une section intitulée «Applications que nous ne poursuivrons pas», qui était toujours aussi par refus que la semaine dernière.
A demandé commentaire, la société a pointé TechCrunch vers un nouveau blog sur «AI responsable». Il note, en partie, «nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient ensemble pour créer une IA qui protège les personnes, la croissance mondiale des promotions et le National soutient la sécurité.»
Les principes d’IA nouvellement mis à jour de Google notent que l’entreprise travaillera à «atténuer les résultats involontaires ou nuisibles et à éviter les préjugés injustes», ainsi qu’à aligner l’entreprise sur «les principes largement acceptables du droit international et des droits de l’homme».
Ces dernières années, les contrats de Google pour fournir aux États-Unis et aux militaires israéliens avec des services cloud ont déclenché des protets internes des employés. La société a gardé qu’il n’est pas utilisé pour nuire aux humains, cependant, le chef de l’IA du Pentagone a récemment déclaré à TechCrunch que certains modèles d’IA de la société accélérent la chaîne de mise à mort de l’armée américaine.