About: http://data.cimple.eu/claim-review/cbfba466c09df0f7c1cf28fae427e2b3ca231ac68599b1d8c57b7e0f     Goto   Sponge   NotDistinct   Permalink

An Entity of Type : schema:ClaimReview, within Data Space : data.cimple.eu associated with source document(s)

AttributesValues
rdf:type
http://data.cimple...lizedReviewRating
schema:url
schema:text
  • Des internautes affirment qu'un drone aurait "tué" l'opérateur humain qui le supervisait.L'engin, contrôlé par l'IA, aurait développé cette stratégie pour atteindre son objectif.L'armée de l'Air américaine a démenti cette rumeur vendredi. Le récit est tout droit sorti d'un film de science-fiction. Selon plusieurs publications mises en ligne depuis ce jeudi 1er juin, un drone américain aurait eu un comportement particulièrement problématique lors d'une simulation. D'après les internautes, un prototype des futurs F16 robotisés, pilotés par l'intelligence artificielle, se serait retourné contre l'opérateur humain qui le supervisait, estimant qu'il était un obstacle au bon déroulé de sa mission. Une histoire qui relance les craintes vis-à-vis de cette technologie. Mais qu'en est-il réellement ? Une "expérience de pensée hypothétique" La rumeur est née après le sommet "Future Combat Air and Space Capabilities". Et plus particulièrement suite aux propos tenus par le colonel Tucker Hamilton à propos des X-62A Vista, ces nouveaux drones autonomes réalisés à partir de vieux avions de chasse. Lors de ce sommet qui s'est tenu à Londres en mai dernier, celui qui est chargé des tests et des opérations d'intelligence artificielle (IA) au sein de l'armée de l'Air américaine a notamment alerté sur les limites de ces systèmes autonomes. En cause, la facilité avec laquelle l'intelligence artificielle (nouvelle fenêtre)peut être trompée. Mais aussi en raison du fait que cette technologie aurait développé des stratégies "très inattendues", pour atteindre son objectif. Ainsi, le Colonel de l'US Air Force (nouvelle fenêtre)aurait cité l'exemple d'une simulation au cours de laquelle le drone en question avait pour mission d'éliminer certaines cibles. Une fois identifiées, il revenait cependant à l'opérateur humain de prendre la décision finale d'engager ou non l'attaque. Une validation qui aurait été considérée par l'IA comme une entrave au bon déroulé de sa tâche. Et l'aurait poussée à "éliminer" cet intermédiaire. "Le système a commencé à se rendre compte que même s'il identifiait la menace, l'opérateur humain lui disait de ne pas la tuer. Qu'a-t-il donc fait ? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait d'atteindre son objectif", aurait ainsi expliqué le colonel, selon le script disponible sur le site de la Royal Aeronautical Society, (nouvelle fenêtre) qui a organisé la conférence. Une histoire digne du scénario de 2001, l'Odyssée de l'espace. Sauf qu'à l'instar du film de Stanley Kubrick, cette situation est totalement fictive. Face à la médiatisation de cette anecdote, qui illustrait les inquiétude (nouvelle fenêtre)s de plus en plus fortes face au déploiement de l'intelligence artificielle, le colonel est revenu sur ses déclarations. Dans une note publiée ce vendredi (nouvelle fenêtre), il explique en fait s'être "mal exprimé" lors de sa prise de parole. Le test en question n'a jamais eu lieu. Il s'agissait en réalité d'une "expérience de pensée hypothétique basée sur des scénarios plausibles et des résultats probables", visant à illustrer le "défi" auquel doit faire face l'Air Force. "Le département de l'Armée de l'air n'a pas effectué de telles simulations de drones", a également confirmé la porte-parole Ann Stefanek dans Insider (nouvelle fenêtre), arguant que "les commentaires du colonel aient été pris hors contexte et se voulaient anecdotiques". Dans sa note publiée vendredi, le principal concerné relevait toutefois que s'il s'agit d'une hypothèse, celle-ci reste plausible à ses yeux. "Nous n’avons pas besoin de conduire une simulation pour savoir que ce scénario est possible", a-t-il ajouté, notant l'importance d'un "développement éthique" de l'intelligence artificielle. Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N'hésitez pas à nous écrire à l'adresse lesverificateurs@tf1.fr. Retrouvez-nous également sur Twitter : notre équipe y est présente derrière le compte @verif_TF1LCI.
schema:mentions
schema:reviewRating
schema:author
schema:datePublished
schema:inLanguage
  • French
schema:itemReviewed
Faceted Search & Find service v1.16.115 as of Oct 09 2023


Alternative Linked Data Documents: ODE     Content Formats:   [cxml] [csv]     RDF   [text] [turtle] [ld+json] [rdf+json] [rdf+xml]     ODATA   [atom+xml] [odata+json]     Microdata   [microdata+json] [html]    About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data] Valid XHTML + RDFa
OpenLink Virtuoso version 07.20.3238 as of Jul 16 2024, on Linux (x86_64-pc-linux-musl), Single-Server Edition (126 GB total memory, 5 GB memory in use)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2025 OpenLink Software