Exoconscience.com

La vérité nous libérera

Selon la DARPA, l’IA pourrait remplacer les commandants militaires humains pour prendre des décisions de vie ou de mort sur le champ de bataille

DARPA contrôlée par l’Ordre du Soleil Noir.

  • La DARPA travaille avec des décideurs pour entraîner des algorithmes à prendre des décisions.
  • L’idée est que les humains ont un parti pris et peuvent être en désaccord, ce qui ralentit les décisions.
  • L’IA peut être formée dès le départ, sur la base des meilleures pratiques, pour prendre des décisions rapides.
  • La technologie n’en est encore qu’à ses débuts, mais la DARPA espère un déploiement à grande échelle.

Les opérations militaires modernes, qu’il s’agisse de combat, de soins médicaux ou de secours en cas de catastrophe, exigent que des décisions complexes soient prises très rapidement, et l’IA pourrait être utilisée pour les prendre.

La Defense Advanced Research Projects Agency (DARPA) a lancé un nouveau programme visant à introduire l’intelligence artificielle dans le processus de prise de décision.

En effet, dans une situation d’urgence réelle, qui peut nécessiter des choix instantanés entre les personnes qui reçoivent de l’aide et celles qui n’en reçoivent pas, la réponse n’est pas toujours claire et les gens ne sont pas d’accord sur la marche à suivre – l’IA prendra une décision rapide.

La dernière initiative de la DARPA, baptisée « In the Moment », portera sur une nouvelle technologie capable de prendre des décisions difficiles dans des situations de stress, grâce à l’analyse en direct de données telles que l’état des patients en cas d’accident collectif et la disponibilité des médicaments.

Cette initiative intervient alors que l’armée américaine s’appuie de plus en plus sur la technologie pour réduire les erreurs humaines, la DARPA affirmant que l’élimination des préjugés humains dans la prise de décision « sauvera des vies ».

Selon la DARPA, il faudra deux ans pour former la nouvelle IA, puis 18 mois pour la préparer, avant de pouvoir l’utiliser dans un scénario réel.

L’IA est très douée pour compter les choses », a déclaré Sally A. Applin, spécialiste de l’interaction entre l’IA et l’éthique, au Washington Post, ajoutant : « Je pense que cela pourrait créer un précédent en remettant la décision de sauver la vie d’une personne entre les mains d’une machine ».

Selon la DARPA, la technologie n’est qu’une partie du problème lorsqu’il s’agit de passer à la prise de décision par l’IA, le reste repose sur l’établissement de la confiance humaine.

À mesure que les systèmes d’IA deviennent plus avancés dans leur collaboration avec les humains, il est vital d’instaurer une confiance humaine appropriée dans les capacités de l’IA à prendre des décisions judicieuses », a expliqué un porte-parole de l’organisation de recherche militaire.

Capter les caractéristiques clés qui sous-tendent la prise de décision humaine experte dans des environnements dynamiques et représenter informatiquement ces données dans des algorithmes décisionnels peut être un élément essentiel pour garantir que les algorithmes fassent des choix fiables dans des circonstances difficiles.

La DARPA a annoncé au début du mois le programme In the Moment (ITM), dont la première tâche consiste à travailler avec des décideurs humains de confiance, afin d’explorer les meilleures options à prendre lorsqu’il n’y a pas de bonne réponse évidente et convenue.

La Defense Advanced Research Projects Agency (DARPA) a lancé un nouveau programme visant à introduire l’intelligence artificielle dans le processus de prise de décision. Image d’archive

L’IMT est différent des approches classiques de développement de l’intelligence artificielle, qui nécessitent l’accord de l’homme sur les bons résultats », a déclaré Matt Turek, responsable du programme IMT.

L’absence de bonne réponse dans les scénarios difficiles nous empêche d’utiliser les techniques classiques d’évaluation de l’IA, qui requièrent implicitement un accord humain pour créer des données de référence.

Par exemple, les algorithmes utilisés par les voitures à conduite autonome peuvent se baser sur la vérité du terrain pour les bonnes et mauvaises réponses de conduite – en fonction des panneaux de signalisation et des règles de la route.

Lorsque les règles ne changent pas, des valeurs de risque codées en dur peuvent être utilisées pour entraîner l’IA, mais cela ne fonctionnera pas pour le ministère de la défense (DoD).

Du point de vue du ministère de la Défense, l’intégration de valeurs de risque uniques ne fonctionnera pas, car les situations de combat évoluent rapidement et l’intention du commandant change d’un scénario à l’autre », a déclaré M. Turek.

Le ministère de la défense a besoin d’approches rigoureuses, quantifiables et évolutives pour évaluer et construire des systèmes algorithmiques permettant de prendre des décisions difficiles lorsque la vérité objective du terrain n’est pas disponible.

Les décisions difficiles sont celles où les décideurs de confiance ne sont pas d’accord, où il n’existe pas de bonne réponse et où l’incertitude, la pression du temps et les valeurs contradictoires créent des défis importants en matière de prise de décision.

Pour résoudre ce problème, la DARPA s’inspire du domaine de l’analyse de l’imagerie médicale.

Dans ce domaine, des techniques ont été mises au point pour évaluer les systèmes, même lorsque des experts qualifiés ne sont pas d’accord.

En s’inspirant de l’imagerie médicale, l’IMT développera un cadre quantitatif pour évaluer les décisions prises par les algorithmes dans des domaines très difficiles », a déclaré M. Turek.

Nous créerons des scénarios de prise de décision réalistes et difficiles qui susciteront des réponses d’humains de confiance afin de capturer une distribution des attributs clés du décideur.

Ensuite, nous soumettrons un algorithme de prise de décision aux mêmes scénarios difficiles et ferons correspondre ses réponses à la distribution de référence afin de le comparer aux décideurs humains de confiance ».

Le programme comporte quatre domaines techniques, couvrant différents aspects de la recherche.

Le premier porte sur la création d’une caractérisation des décideurs, qui vise à identifier les attributs clés des humains chargés de prendre des décisions sur le terrain.

Le deuxième consistera à créer un score entre un décideur humain et un algorithme – dans le but de créer des décisions algorithmiques auxquelles les humains peuvent faire confiance.

La troisième sera de créer un programme, basé sur ces scores, qui pourra être évalué, et la quatrième sera de créer une politique et une pratique pour son utilisation.

Il faudra trois ans et demi avant d’atteindre l’étape finale, selon la DARPA, les deux premières années étant consacrées à la construction d’une IA de base et à son test sur différents scénarios.

La seconde moitié, qui couvre les 18 derniers mois, consistera à étendre les capacités de l’IA et à la tester sur des événements plus complexes faisant de multiples victimes.

L’OTAN travaille également à la création d’assistants d’IA, qui peuvent aider à la prise de décision, en l’occurrence un assistant de triage en collaboration avec l’université Johns Hopkins.

Le colonel Sohrab Dalal, chef de la branche médicale du Commandement suprême allié Transformation de l’OTAN, a déclaré au Washington Post que le triage aurait besoin d’être rafraîchi.

Il s’agit du processus par lequel les cliniciens rendent visite aux soldats pour évaluer le degré d’urgence de leurs soins, et il n’a pas beaucoup changé au cours des 200 dernières années.

Son équipe utilisera les données NATA sur les blessures, ainsi que les systèmes de notation des blessés, les prédictions et les données sur l’état des patients pour déterminer qui doit être soigné en premier.

C’est une très bonne utilisation de l’intelligence artificielle », a déclaré Dalal, médecin de formation. L’essentiel est que cela permettra de mieux traiter les patients [et] de sauver des vies ».

*

Un hélicoptère Black Hawk entièrement autonome prend son envol sans pilote pour la première fois

Un hélicoptère Black Hawk entièrement autonome s’est envolé au-dessus des États-Unis sans pilote humain à bord pour la première fois.

Fruit d’un partenariat entre Lockheed Martin Sikorsky et la Defence Armed Research Projects Agency (DARPA), il a décollé de Fort Campbell, dans le Kentucky, le 5 février.

Sans personne à bord, l’UH-60A Black Hawk a effectué un vol de 30 minutes au-dessus de l’installation de l’armée américaine, et un second vol a eu lieu le 7 février.

Il est équipé d’un cockpit piloté en option, qui doit passer du mode pilote au mode autonome, ce qui permet à un cerveau informatique embarqué de contrôler le véhicule.

Au cours du vol, le pilote autonome ALIAS (Aircrew Labor In-Cockpit Automation System) a été confronté à une série d’obstacles simulés à surmonter.

Il a dû exécuter une série de virages à la pédale, de manœuvres et de lignes droites avant d’effectuer un atterrissage parfait sur la piste de Fort Campbell – sans aucune intervention humaine.

L’hélicoptère autonome pourrait être utilisé pour livrer des fournitures dans des zones de guerre dangereuses ou pour récupérer des soldats sans risquer la présence d’un pilote.

*

COMMENT LES INTELLIGENCES ARTIFICIELLES APPRENNENT GRÂCE AUX RÉSEAUX NEURONAUX

Les systèmes d’IA reposent sur des réseaux de neurones artificiels (ANN), qui tentent de simuler le fonctionnement du cerveau pour apprendre.

Les RNA peuvent être entraînés à reconnaître des modèles dans l’information – y compris la parole, les données textuelles ou les images visuelles – et sont à la base d’un grand nombre des développements de l’IA de ces dernières années.

L’IA conventionnelle utilise des entrées pour « enseigner » à un algorithme un sujet particulier en lui fournissant des quantités massives d’informations.

Les systèmes d’IA reposent sur des réseaux neuronaux artificiels (RNA), qui tentent de simuler le fonctionnement du cerveau afin d’apprendre. Les réseaux neuronaux artificiels peuvent être entraînés à reconnaître des modèles dans l’information – y compris la parole, les données textuelles ou les images visuelles.

Parmi les applications pratiques, citons les services de traduction de Google, le logiciel de reconnaissance faciale de Facebook et les filtres en direct de Snapchat qui modifient les images.

Le processus de saisie de ces données peut prendre énormément de temps et se limite à un seul type de connaissances.

Un nouveau type de RNA, appelé « Adversarial Neural Networks », oppose l’esprit de deux robots d’IA, ce qui leur permet d’apprendre l’un de l’autre.

Cette approche a pour but d’accélérer le processus d’apprentissage et d’affiner les résultats créés par les systèmes d’IA.

Source : https://www.dailymail.co.uk/sciencetech/article-10669075/DARPA-launches-new-program-AI-replace-humans-decision-making-battlefield.html

Traduction : https://exoconscience.com


Si l’article vous a plu, n’hésitez pas à vous abonner à nos Réseaux Sociaux ainsi qu’à partager l’article sur vos pages / groupes Facebook, cela aide énormément à l’information. Et si vous vous sentez guidé, soutenir le site par un don Paypal ! Merci beaucoup.


Faire vivre le site avec un soutien Paypal :

N’hésitez pas à nous rejoindre sur notre canal Exoconsicence sur Telegram pour contourner la censure ! :

Partager l'article pour contribuer à l'information :
S’abonner
Notification pour
guest
0 Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x