Nombre d’actualités scientifiques intégrant l’Intelligence Artificielle (IA) en cancérologie défraient la chronique, nous pouvons intelligemment prédire que ce n’est que le début…

Un système d’intelligence artificielle capable de prédire le risque du cancer du sein d’une patiente, jusqu’à cinq ans avant son apparition sur les imageries ; grâce à un algorithme basé sur plus de 90 000 mammographies ; Ou encore, un accélérateur de particules miniaturisé, monté sur un bras robotisé (Cyberknife*), permettant de délivrer des centaines de faisceaux de rayons X en adaptant les tirs aux mouvements des cibles, grâce à des algorithmes de calcul utilisant l’IA, avec une précision infra millimétrique.

L’IA numérique prépare ses raisonnements à partir de quantités de données, beaucoup l’ont déjà admis et l’utilisent, nos bases de données d’analyse de la génétique des cancers en est un exemple. L’IA symbolique prépare ses raisonnements, quant à elle, à partir de modèles logiques développés en amont, et peut être utilisée là où la quantité de données manque, comme pour analyser des maladies rares par exemple.

Que ce soit en vue d’une amélioration et d’une personnalisation du diagnostic médical, ou du pilotage d’un automatisme robotisé servant au traitement du cancer, l’IA continue heureusement d’interroger le corps médical.

Les Robots en Médecine

Robot-cancerPrenons le pilotage des robots, afin de s’assurer de leur fidélité et d’éviter tout danger pour l’Homme, les trois lois devaient être intégrées au plus bas niveau du « cerveau positronique» (Asimov, 1942) des robots, garantissant ainsi leur inviolabilité.

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Peu d’entre nous savent qu’il y a une quatrième lois, la « Loi ZERO » qui a été mise au point par un robot (Reventlov & Olivaw, les robots de l’empire) : cette Loi zéro placera ou tentera de placer la sécurité de l’humanité avant celle d’un individu. 

Les mouvances technophiles et transhumanistes voient parfois les trois lois comme un idéal à venir. Des avancées significatives en matière d’intelligence artificielle seraient nécessaires pour que les robots obtiennent une intelligence. L’humanité a donc intérêt à élaborer des directives et des garanties pour leur fonctionnement.

Comment une machine pourrait-elle se modifier?

Il existe des langages de programmation prévus pour écrire des logiciels évolutifs (capable d’évoluer seuls et de se modifier à la volée). Dans l’absolu, il existe donc des moyens « évolutifs » permettant à un logiciel de trouver des solutions. Au final, un robot c’est un logiciel associé à de la mécanique. 

Ensuite, si une intelligence artificielle était capable d’engendrer une réflexion évoluée au point d’envisager une loi Zero, alors une telle intelligence s’intéresserait également à « elle même » comme le fait l’homme vis-à-vis de lui même.

Les hommes cherchent à comprendre et maîtriser les mécanismes biologiques qui font ce qu’ils sont. L’homme modifie également l’homme (opération esthétiques, remplacement de rotules, cœur artificiel, correction de défaut). L’homme à le pouvoir de modifier sa génétique (ceci étant et restant un point éthique sensible). Si l’homme peut le faire avec son intelligence… une machine ayant une intelligence comparable le pourra aussi…. un jour ou l’autre. A noter qu’il est techniquement beaucoup plus simple de bidouiller des algorithmes et des octets en mémoire (pour une machine) que de bidouiller des éléments biologiques de nos corps humains (pour nous les hommes).

Nous les hommes, nous évolutions au rythme des générations. avec un passage de génération tous les 20 à 30 ans.

Sur une machine évolutive (capable de modifier sa programmation), le passage d’une génération à l’autre pourrait ne prendre que… quelques secondes.

Faut-il une morale pour les intelligences artificielles ?

Il ne fait aucun doute que oui, car dès lors que des robots ou des programmes prennent des décisions et les exécutent, il faut qu’ils respectent les principes élémentaires et communs des morales humaines – par exemple: ne pas tuer.

La question est cependant délicate: pouvons-nous, et savons-nous, programmer ces éléments de morale? La réponse est non.

Aujourd’hui nous ne savons pas vraiment programmer les principes moraux les plus élémentaires, principes qui demandent des capacités cognitives assez supérieures à celles que nous maîtrisons et savons introduire dans nos programmes.

Les IA sont-elles prêtes à effectuer les tâches qu’on envisage pour elles?

La surévaluation de ce dont est capable l’IA est courante: depuis la naissance de l’IA, cela a toujours été le cas; or pour évaluer le possible en matière de morale artificielle, il faut d’abord ne pas se faire d’illusion sur ce qui est techniquement accessible. Bien jouer aux échecs et au Go est un triomphe de l’intelligence artificielle, mais c’est sans doute plus facile que, par exemple, programmer une machine à reconnaître une personne affaiblie et fragile. Pourtant, pour que nos robots ne commettent pas «d’abus de faiblesse» comme la loi nous y contraint et comme toute morale humaine en fait une obligation, il faudrait savoir placer dans nos intelligences artificielles les capacités de jugement complexes et subtiles permettant de savoir reconnaître «un abus de faiblesse».

Aujourd’hui nous ne savons pas le faire de manière satisfaisante, et donc nous ne pouvons pas programmer cet impératif moral pourtant élémentaire. Il en résulte que nous devons envisager la morale des intelligences artificielles avec prudence et modestie. Nous ne pouvons envisager que la mise en place de parcelles limitées et simplificatrices de morale, qui ne pourront s’appliquer que dans les situations les plus élémentaires…

Qu’attend-on de l’Intelligence Artificielle en Médecine ?

  1. L’aide à la décision, diagnostique ou thérapeutique,
  2. La prédiction d’une pathologie
  3. La personnalisation d’un traitement,
  4. La prévention pour la population. L’intelligence artificielle aidera certainement à améliorer les performances d’une Médecine de plus en plus challengée sur l’efficacité et pas seulement sur les moyens qu’elle met en œuvre. Déléguer de nombreuses tâches de façon fiable pour ré-humaniser la Médecine est également un objectif à afficher.

Quelles questions éthiques sont nouvellement posées ?

  • La personnalisation algorithmique et son utilisation potentielle par les assurances poseraient de sérieux problèmes éthiques, cela remettrait en cause le système de mutualisation actuel, et la prise en charge des comportements à risque par la collectivité.
  • La perte de compétence du médecin dans son diagnostique et son intervention thérapeutique serait problématique, cela aurait des implications en termes de responsabilité juridique.
  • Les biais de l’échantillonnage des données dans les bases d’analyse doivent être considérés, avec souvent une sur représentativité des personnes âgées, et une disparité de l’origine raciale par exemple; lorsqu’on sait que ceux sont ces bases de données qui guident les résultats des algorithmes fondant l’IA. Nous pourrions rajouter qu’un enjeu éthique est également représenté par la qualité des données de ces bases, elles sont souvent des données capturées pour usage précis et utilisées pour d’autres usages. Finalement, les algorithmes nous rendent les informations que nous leur avons données en les paramétrant, nous avons une responsabilité à assumer par rapport à ces résultats.

Il conviendra de réfléchir à des gardes fous humains et technologiques, ainsi qu’à des propositions éthiques nouvelles. Ces réflexions nouvelles sont indispensables afin d’assurer la loyauté et l’équité des systèmes basés sur l’IA, la transparence, la traçabilité des processus d’enregistrement et d’analyse, pour éviter l’effet « boîte noire ».

Contre la peur de l’innovation exprimée par certains, ayons le courage d’accompagner celle ci de façon éthique et orientée…

INSCRIPTION GRATUITE
Cercle philosophique éthique & cancer
Le pouvoir de décider

INSCRIPTION GRATUITE

Cercle philosophique éthique & cancer

Le pouvoir de décider

 

mardi 22 Octobre 2019

18h30 à 20h30 - Institut Rafaël

You have Successfully Subscribed!