Le projet Nimbus de Google est l’avenir du mal
Lorsqu’elle est utilisée de manière épouvantable, l’IA peut être effrayante. Le nouveau projet de Google, Nimbus, est l’avenir du mal.
Google agit souvent de manière stupide. Il en va de même pour toutes les grandes organisations. Cependant, il faut un travail supplémentaire pour accomplir quelque chose de vraiment horrible. Sur le spectre, c’est là que le projet Nimbus de Google s’intègre.
Le projet Nimbus est une collaboration entre Google, Amazon et le gouvernement israélien qui utilise des algorithmes d’apprentissage automatique de pointe pour offrir des capacités de surveillance futuristes. Que cela vous plaise ou non, ce projet fera partie de la sécurité de l’État à l’avenir, et il ne sera pas pire que beaucoup d’autres. Beaucoup d’entre nous utilisent une technologie comparable à l’intérieur et à l’extérieur de nos maisons.
Ce que dit Google concernant l’utilisation de la technologie de l’entreprise par Project Nimbus, c’est là que les choses deviennent troubles et moche :
Les documents de formation Nimbus mettent l’accent sur « les capacités de détection des « visages, des repères faciaux, des émotions » de l’API Cloud Vision de Google », et dans un webinaire de formation Nimbus, un ingénieur de Google a confirmé à un client israélien qu’il serait possible de « traiter les données via Nimbus afin de déterminer si quelqu’un ment ».
Oui, l’entreprise à l’origine des affreux algorithmes de YouTube souhaite désormais proposer des algorithmes capables de dire si une personne dit la vérité aux autorités. Pensez-y. À la lumière de ses défauts inhérents, Microsoft a abandonné cette science.
Malheureusement, Google n’est pas du tout d’accord et exerce des représailles contre ceux qui, au sein de l’entreprise, ne sont pas d’accord avec cela.
Regardez la vidéo ci-dessous :
Nous n’entrerons pas trop dans les politiques impliquées ici, mais toute l’initiative a été créée pour que le gouvernement israélien puisse dissimuler ses activités. Le projet Nimbus vise à « empêcher le gouvernement allemand de demander des données relatives aux Forces de défense israéliennes pour la Cour pénale internationale », selon Jack Poulson, ancien responsable de la sécurité de Google Enterprise, selon The Intercept. (Selon l’interprétation de certaines personnes des lois, Israël est soupçonné de commettre des crimes contre l’humanité contre les Palestiniens.)
Il n’y a aucune bonne raison de fournir ce genre de technologie à n’importe quel gouvernement à n’importe quelle échelle.
Cependant, peu importe ce que vous pensez de la question israélo-palestinienne. Donner à n’importe quel gouvernement ce type de technologie à n’importe quelle échelle n’est pas justifié. Ce faisant, Google devient méchant.
Même si l’API Cloud Vision de Google était toujours précise, les prétendus pouvoirs de Nimbus sont troublants. Pensez aux caméras du corps de police qui utilisent l’IA pour déterminer s’il convient de porter plainte contre vous et/ou de vous détenir. Mais quand vous pensez à la fréquence à laquelle les systèmes de vision d’apprentissage automatique se trompent, tout devient effrayant.
Google n’est pas le seul concerné par ce problème. Il suffit de regarder la modération de contenu sur Facebook, Twitter ou YouTube. Les ordinateurs utilisent des algorithmes de modération qui font fréquemment des conclusions erronées pour terminer 90% de la tâche initiale. Cependant, Project Nimbus pourrait finir par vous coûter la vie en plus de simplement supprimer votre commentaire grossier.
Ce type d’IA ne peut être proposé par aucune organisation tant que la technologie n’a pas atteint un point de perfection, ce qui ne se produira jamais.
Écoutez, comme la majorité des gens, nous sommes tous pour attraper les méchants et prendre des mesures contre eux. Nous sommes conscients que l’application de la loi, qu’elle soit assurée par une unité de police de quartier ou par les FDI, est un mal nécessaire. Il n’est pas nécessaire d’utiliser l’IA pour y parvenir.
Nous ne préconisons pas que Google cesse d’essayer de se développer et se concentre plutôt sur la création du logiciel qui exécute les téléphones que vous adorez. Nous disons simplement qu’il y a une bonne et une mauvaise voie, et dans ce cas, Google a choisi la mauvaise approche et est maintenant bloqué parce que les dispositions de l’accord lui interdisent de cesser de participer.
Ne suivez jamais quelqu’un sur Internet qui est sur une tribune ; au lieu de cela, créez vos propres opinions. Mais vous devez également être conscient du moment où une entreprise fondée sur la devise « Don’t Be Evil » fait un virage à 180 degrés et s’avère être le mal dont elle nous a avertis.
Traduction : MIRASTNEWS
Source : GreatGameIndia
Votre commentaire