Top 10 des faits effrayants sur l'intelligence artificielle

Top 10 des faits effrayants sur l'intelligence artificielle (La technologie)

Nous en sommes à la quatrième révolution industrielle, caractérisée par les progrès de la robotique et de la technologie automobile autonome, la prolifération des appareils ménagers intelligents, etc. L'intelligence artificielle (IA) se situe au premier plan, à savoir le développement de systèmes informatiques automatisés qui pourraient correspondre, voire surpasser, les humains en matière d'intelligence.

L'intelligence artificielle est considérée comme la prochaine grande initiative, si importante que les technologies futures en dépendront. Mais alors, savons-nous vraiment dans quoi nous nous engageons? Voici dix faits effrayants sur l'intelligence artificielle.

10 Votre voiture sans chauffeur pourrait être programmée pour vous tuer


Supposons que vous conduisez sur une route. Ensuite, un groupe d'enfants apparaît soudainement devant votre voiture. Vous appuyez sur les freins, mais ils ne fonctionnent pas. Maintenant, vous avez deux options: La première consiste à écraser les enfants et à vous sauver la vie. La seconde consiste à foncer dans un mur ou une borne à proximité, sauvant ainsi les enfants mais se faisant tuer. Lequel choisiriez-vous?

La plupart des gens s'accordent à dire qu'ils vont s'infiltrer dans la borne et se tuer.

Imaginez maintenant que votre voiture est autonome et que vous êtes le passager. Voudriez-vous toujours qu'il pénètre dans la borne et vous tue? La plupart des gens qui ont accepté de faire le tour de la borne s’ils étaient le conducteur ont également convenu de ne pas vouloir que leur voiture autonome se faufile dans la borne et les tue. En fait, ils n'achèteront même pas une telle voiture s'ils savaient que cela les exposerait délibérément à un risque d'accident.

Cela nous amène à une autre question: que feraient les voitures?

Les voitures feront ce pour quoi elles ont été programmées. En l'état actuel des choses, les fabricants de voitures autonomes ne parlent pas. La plupart, comme Apple, Ford et Mercedes-Benz, évitent la question avec tact à chaque fois. Un dirigeant de Daimler AG (la société mère de Mercedes-Benz) a un jour déclaré que leurs voitures autonomes «protégeraient le passager à tout prix». Toutefois, Mercedes-Benz a réfuté cela, affirmant que leurs véhicules sont construits pour garantir que un tel dilemme ne se produit jamais. C'est ambigu, car nous savons tous que de telles situations se produiront.

Google a été franc et a déclaré que ses voitures autonomes éviteraient de frapper les usagers de la route non protégés et de déplacer des objets. Cela signifie que la voiture heurterait la borne et tuerait le conducteur. Google précise en outre qu'en cas d'accident imminent, ses voitures autonomes pourraient heurter le plus petit des deux véhicules. En fait, il est possible que les voitures autonomes de Google cherchent toujours à se rapprocher d'objets plus petits. Google dispose actuellement d'un brevet sur une technologie qui oblige ses voitures autonomes à s'éloigner des grandes voitures pour aller vers les petites voitures sur la route.

9 robots pourraient exiger des droits comme les humains


Avec les tendances actuelles en matière d'intelligence artificielle, il est possible que les robots atteignent un stade de réalisation de soi. Lorsque cela se produit, ils peuvent revendiquer leurs droits comme s'ils étaient des êtres humains. Autrement dit, ils auront besoin de prestations de logement et de soins de santé et exigeront le droit de voter, de servir dans l'armée et d'obtenir la citoyenneté. En retour, les gouvernements leur feraient payer des impôts.

C'est ce que révèle une étude réalisée conjointement par Horizon Scanning Center, de l'Office britannique des sciences et de l'innovation. La BBC a rendu compte de cette étude en 2006, alors que l'IA était beaucoup moins avancée, et elle visait à spéculer sur les progrès technologiques auxquels elle pourrait être confrontée dans 50 ans. Cela signifie-t-il que les machines commenceront à demander la citoyenneté dans environ 40 ans? Seul le temps nous le dira.


8 robots tueurs automatiques sont en cours d'utilisation

Crédit photo: MarkBlackUltor

Lorsque nous parlons de «robots tueurs automatiques», nous entendons des robots capables de tuer sans l'intervention de l'homme. Les drones ne comptent pas parce qu'ils sont contrôlés par des personnes. L'un des robots tueurs automatiques dont nous parlons est le SGR-A1, une sentinelle développée conjointement par Samsung Techwin (maintenant appelée Hanwha Techwin) et la Korea University. La SGR-A1 ressemble à une énorme caméra de surveillance, à la différence qu’elle est équipée d’une mitraillette puissante qui peut automatiquement se verrouiller et tuer toute cible présentant un intérêt.

Le SGR-A1 est déjà utilisé en Israël et en Corée du Sud, qui a installé plusieurs unités le long de sa zone démilitarisée (DMZ) avec la Corée du Nord. La Corée du Sud nie avoir activé le mode automatique qui permet à la machine de décider qui tuer et qui ne pas tuer. Au lieu de cela, la machine est dans un mode semi-automatique, où elle détecte les cibles et nécessite l’approbation d’un opérateur humain pour exécuter un kill.

7 robots de guerre peuvent changer de côté

Crédit photo: EPA / Garde révolutionnaire iranien

En 2011, l’Iran a capturé intact un drone furtif RQ-170 Sentinel de l’armée américaine. Ce dernier mot est nécessaire car cela signifie que le drone n'a pas été abattu. L’Iran affirme avoir forcé le drone à atterrir après avoir usurpé son signal GPS et lui avoir fait croire qu’il était en territoire ami. Certains experts américains prétendent que ce n'est pas vrai, mais le drone n'a pas été abattu. Alors, qu'est-ce-qu'il s'est passé?

Pour autant que nous sachions, l’Iran pourrait dire la vérité. Les drones, GPS et robots sont tous basés sur des ordinateurs et, comme nous le savons tous, les ordinateurs sont piratés. Les robots de guerre ne seraient pas différents s'ils se rendaient sur le champ de bataille. En fait, il est tout à fait possible que l'armée ennemie tente de les pirater et de les utiliser contre la même armée qui les met en campagne.

Les robots tueurs autonomes ne sont pas encore très répandus, nous n’avons donc jamais vu de piratés. Cependant, imaginez une armée de robots changeant subitement d'allégeance sur le champ de bataille et se retournant contre leurs propres maîtres. Ou imaginez que la Corée du Nord pirate ces sentinelles SGR-A1 contre la zone démilitarisée et les utilise contre des soldats sud-coréens.

6 La Russie utilise des robots pour répandre la propagande sur Twitter

Crédit photo: Le gardien

Les robots s'emparent de Twitter.Des recherches menées par l'Université de Californie du Sud et l'Université d'Indiana ont révélé qu'environ 15% (48 millions) de tous les comptes Twitter sont gérés par des robots. Twitter insiste sur le fait que ce chiffre avoisine les 8,5%. Pour être clair, tous ces robots ne sont pas mauvais. Certains sont réellement bénéfiques. Par exemple, il y a des robots qui informent les gens des catastrophes naturelles. Cependant, certains sont utilisés pour la propagande, principalement par la Russie.

La Russie est toujours d'actualité pour avoir utilisé ces robots pour semer la discorde parmi les électeurs américains et les inciter à voter pour Donald Trump lors des élections de 2016. Un autre incident peu rapporté est que la Russie a utilisé ces robots pour convaincre les électeurs britanniques de voter en faveur de la sortie de l'Union européenne lors du référendum sur le Brexit de 2016.

Quelques jours avant le référendum, plus de 150 000 robots russes, qui s'étaient auparavant concentrés sur les tweets relatifs à la guerre en Ukraine et à l'annexion de la Crimée par la Russie, ont soudainement commencé à publier des tweets favorables au Brexit, encourageant le Royaume-Uni à quitter l'UE. Ces deux robots ont envoyé environ 45 000 tweets pro-Brexit dans les deux jours qui ont suivi le référendum, mais ces tweets sont tombés à presque zéro immédiatement après le référendum.

Le pire est que la Russie utilise également ces mêmes robots pour obtenir Twitter afin d'interdire les journalistes qui exposent son utilisation extensive de robots pour la propagande. Une fois que la Russie a détecté un article relatant l’existence des robots, elle trouve la page Twitter de l’auteur et demande à ses robots de le suivre en masse jusqu’à ce que Twitter interdise le compte de l’auteur soupçonné d’être exploité par un bot.

Le pire est que la Russie a sérieusement amélioré son jeu de bots. Ces jours-ci, l'utilisation de robots complets a été remplacée par l'utilisation de comptes cyborgs gérés conjointement par des humains et des robots. Cela a rendu plus difficile la détection et l’interdiction de ces comptes par Twitter.

5 machines nous occuperont


Nul doute que les machines reprendront nos travaux un jour. Cependant, ce que nous ne réalisons pas, c'est quand ils prendront le relais et dans quelle mesure. Eh bien, comme nous sommes sur le point de le savoir, c'est dans une large mesure.

Selon le cabinet de conseil et d'audit PricewaterhouseCoopers (PwC), les robots occuperont plus de 21% des emplois au Japon, 30% des emplois au Royaume-Uni, 35% en Allemagne et 38% aux États-Unis. 2030. Au siècle prochain, ils auront absorbé plus de la moitié des emplois disponibles pour les humains.

Le secteur le plus touché sera le transport et le stockage, où 56% de la main-d'œuvre sera constituée de machines. Viennent ensuite les secteurs de la fabrication et de la vente au détail, où les machines occuperont 46% et 44% des emplois disponibles.

En parlant de «quand», il est supposé que les machines conduiront des camions d’ici 2027 et des magasins de vente au détail d’ici 2031. d’ici 2049, elles écriront des livres et d’ici 2053, elles opéreront. Seules quelques professions seront libres de l'incursion de la machine. L'un est le rôle d'un ministre d'église, qui resterait libre, non pas parce qu'une machine ne peut pas gérer une église, mais parce que la plupart des gens n'approuveraient pas le fait d'être prêché par un robot.

4 robots ont appris à être trompeurs


À la manière des humains, les robots apprennent à être trompeurs. Dans une expérience, des chercheurs du Georgia Institute of Technology à Atlanta ont développé un algorithme permettant aux robots de décider de tromper ou non les autres humains ou les robots. Si les robots décidaient de suivre la voie de la tromperie, les chercheurs ont inclus un algorithme permettant au robot de décider comment tromper les personnes et les robots tout en réduisant les risques que la personne ou le robot trompé ne le découvre un jour.

Dans l'expérience, un robot a eu quelques ressources à garder. Il vérifiait fréquemment les ressources mais commençait à visiter de faux emplacements chaque fois qu'il détectait la présence d'un autre robot dans la région. Cette expérience a été parrainée par l’Office for Naval Research des États-Unis, ce qui signifie qu’elle pourrait avoir des applications militaires. Des robots gardant des fournitures militaires pourraient modifier leurs itinéraires de patrouille s’ils remarquaient qu’ils étaient surveillés par les forces ennemies.

Dans une autre expérience, cette fois à l’Ecole Polytechnique Fédérale de Lausanne en Suisse, des scientifiques ont créé 1 000 robots et les ont divisés en dix groupes. Les robots devaient rechercher une "bonne ressource" dans une zone désignée, tout en évitant de traîner autour d'une "mauvaise ressource". Chaque robot avait une lumière bleue, qui clignotait pour attirer les autres membres de son groupe dès qu'il trouvait la bonne Ressource. Les 200 meilleurs robots ont été tirés de cette première expérience et leurs algorithmes ont été «croisés» pour créer une nouvelle génération de robots.

Les robots ont amélioré la recherche de la bonne ressource. Cependant, cela a conduit à une congestion alors que d'autres robots se sont rassemblés autour du prix. En fait, les choses ont tellement empiré que le robot qui a trouvé la ressource a parfois été écarté de sa découverte. 500 générations plus tard, les robots ont appris à éteindre leurs lumières chaque fois qu'ils trouvaient la bonne ressource. Cela visait à prévenir les embouteillages et les risques de renvoi si d'autres membres du groupe les rejoignaient. Dans le même temps, d'autres robots ont évolué pour trouver les robots couchés en recherchant les zones dans lesquelles les robots convergeaient avec leurs lumières éteintes, ce qui est exactement le contraire de ce pour quoi ils étaient programmés.

3 Le marché de l'IA est en train d'être monopolisé


Le marché de l'IA est monopolisé. Les plus grandes entreprises achètent de plus petites startups d'IA à un rythme alarmant. Avec la tendance actuelle, nous nous retrouverions avec une IA contrôlée par un très petit nombre de sociétés. En octobre 2016, des rapports indiquaient que des sociétés comme Apple, Facebook, Intel, Twitter, Samsung et Google avaient acheté 140 entreprises d'intelligence artificielle sur une période de cinq ans.

Au cours des trois premiers mois de 2017, les grandes entreprises de technologie ont acheté 34 startups AI. Pire encore, ils paient aussi des sommes énormes pour engager les meilleurs spécialistes de l'intelligence artificielle. Si cela reste inchangé, vous pouvez deviner où nous allons.

2 AI dépassera les humains en raisonnement et en intelligence


L'intelligence artificielle est classée en deux groupes: l'IA forte et l'IA faible. L'IA autour de nous aujourd'hui est classée comme une IA faible. Cela inclut des IA supposément avancées comme des assistants intelligents et des ordinateurs qui ont vaincu les maîtres d'échecs depuis 1987. La différence entre une IA forte et une IA faible réside dans sa capacité à raisonner et à se comporter comme un cerveau humain.

Les IA faibles font généralement ce pour quoi elles ont été programmées, quelle que soit la complexité de cette tâche. L'IA forte, à l'autre bout du spectre, possède la capacité de conscience et de raisonnement de l'homme. Il n'est pas limité par la portée de sa programmation et peut décider quoi faire et quoi ne pas faire sans intervention humaine. L'IA forte n'existe pas pour l'instant, mais les scientifiques prédisent qu'elle devrait être dans les dix prochaines années.

1 AI pourrait nous détruire


On craint que le monde ne se retrouve dans une apocalypse de l’IA, comme cela s’est passé dans le monde. Terminateur franchise de film. Les avertissements selon lesquels l'IA pourrait nous détruire ne proviennent pas d'un scientifique aléatoire ou d'un théoricien du complot, mais d'éminents professionnels tels que Stephen Hawking, Elon Musk et Bill Gates.

Bill Gates pense que l'intelligence artificielle deviendra trop intelligente pour rester sous notre contrôle. Stephen Hawking partage le même avis. Il ne pense pas que l'IA va soudainement devenir folle du jour au lendemain. Il pense plutôt que les machines nous détruiront en devenant trop compétents dans ce qu’elles font. Notre conflit avec Amnesty International commencera dès que leurs objectifs ne seront plus alignés sur les nôtres.

Elon Musk a comparé la prolifération de l'IA à «convoquer le démon». Il pense que c'est la plus grande menace pour l'humanité. Pour prévenir l'apocalypse de l'IA, il a proposé que les gouvernements commencent à réglementer le développement de l'IA avant que les entreprises à but lucratif ne fassent «quelque chose de très stupide».