Alain Bensoussan pour Planète robots, mars

Alain Bensoussan pour Planète robots, mars
Droit&robotique
LES ROBOTS SONT-ILS
RESPONSABLES DE LEURS ACTES ?
Aussi parfaits soient-ils, les robots ne sauraient être infaillibles… Car si l’erreur est humaine, elle
peut également être robotique. À terme, les robots intelligents seront donc conduits à répondre
de leurs actes à mesure qu’ils acquerront de l’autonomie décisionnelle.
L'homme bicentenaire, une des œuvres emblématique d'Isaac Asimov porté à l'écran. — Les métiers à
tisser Jacquard ont permis une grande intrusion des machines au début du XIXe siècle.
Faire le ménage, assurer la sécurité de la
maison, surveiller les enfants, prendre
soin des personnes, les transporter, etc.
— les robots envahissent progressivement notre quotidien. Ils sont de plus en
plus intelligents et de plus en plus autonomes, ce qui conduit à s’interroger sur
leur responsabilité juridique.
LES TROIS LOIS DE LA ROBOTIQUE
D’ASIMOV
L'écrivain de science-fiction Isaac Asimov
a fait preuve d’un esprit juridique avantgardiste en réfléchissant aux implications
futures de la robotique dès 1942. Dans
ses romans, il a rédigé trois lois de la robotique :
1. Un robot ne peut porter atteinte à un
être humain ni, restant passif, permettre
qu'un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui
donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
3. Un robot doit protéger son existence
94
I
PLANETE ROBOTS N°20
tant que cette protection n'entre pas en
conflit avec la première ou la deuxième
loi.
En réalité, ces lois que l’on pourrait qualifier d’« universelles » font partie des
grands principes de droit posés par le
Code civil et le Code pénal pour protéger
la personne humaine, à savoir…
— La loi assure la primauté de la personne, interdit toute atteinte à la dignité de
celle-ci et garantit le respect de l'être humain dès le commencement de sa vie
(art. 16 C. civ.).
— L’interdiction de s'abstenir volontairement de porter assistance à une personne
en péril (art. 223-6 C. pén.).
— L’irresponsabilité pénale de la personne qui agit en état de légitime défense
(art. 122-5 C. pén.).
Mais les lois d’Asimov ne sont pas de véritables lois, au sens classique du terme.
Il s’agit davantage de principes visant à
poser un système de valeurs (un robot ne
doit pas mettre en danger un humain)
sans offrir de cadre juridique en termes de
responsabilité. Elles sont donc insuffisantes en tant que telles pour encadrer
les activités robotiques.
LA RESPONSABILITE EST LIÉE À LA
FAUTE HUMAINE
La notion de responsabilité telle qu’issue
du code civil est liée à la faute humaine.
La jurisprudence s’est toujours refusée à
imputer un fait dommageable à une machine — si perfectionnée soit-elle — qui
n'en est pas l'auteur car la notion de responsabilité est liée à la question de l’autonomie décisionnelle, c’est-à-dire à la
capacité de discernement.
Au début du XIXe siècle, la multiplication
des accidents causés par des machines
a transformé peu à peu le droit de la responsabilité en un droit de l’indemnisation.
Les juges ont considéré les machines (notamment les automobiles), comme présumées dangereuses. La recherche
incessante de sécurité a fait évoluer la loi,
de la responsabilité « pour faute » vers la
responsabilité « sans faute », afin de pouvoir répondre au problème de la réparation des dommages causés « du fait des
choses ». Et avec les progrès techniques,
ce concept de « choses » a été interprété
de plus en plus largement — jusqu’à
par Maître Alain Bensoussan
À gauche : Le robot doit être irréprochable en matière de sécurité avant sa mise sur le marché. Les humains et les robots vivent dans le même monde. Ici le robot Golem Krang, un
véritable Mac Gyver, avec Mike Stilman de Georgia Tech. —
Au dessus : Les robots et les humains vont travailler ensemble
dans le futur. C'est dés maintenant qu'il faut préparer ces changements – Ici un Robonaut 2 (à gauche).
— le robot, apte à générer de manière autonome des effets juridiques liés à ses
actes.
Plus le robot acquiert un degré d’autonomie (d’Intelligence artificielle) et plus son
utilisation engendrera de questions
éthiques.
C’est également une réflexion qui devra
être menée avec les assureurs si l’on veut
que les activités robotiques puissent se
développer dans l’intérêt général. Ces
derniers devront sans doute se spécialiser dans les dommages robotiques.
l’étendre aux « produits défectueux »
avec la loi du 19 mai 1998.
LES ROBOTS SONT-ILS DES
PRODUITS DÉFECTUEUX ?
La responsabilité du fait des produits défectueux est la situation dans laquelle un
producteur engage sa responsabilité du
fait d'un défaut de sécurité de l'un de ses
produits entraînant un dommage à une
personne, quelle qu'elle soit. Il s'agit d'un
régime spécial de responsabilité (C. civ.
art. 1386-1 et s.). Ainsi, pour les machines, le droit considère que c’est celui
qui les contrôle qui en est responsable
tant qu’il n’y a pas de dysfonctionnement.
En cas de problème technique, c’est le
constructeur qui devient responsable à
condition que la machine ait été utilisée
conformément au mode d’emploi.
Dans le cas de machines « autonomes »,
c’est-à-dire capables de réagir seules à
l’environnement et à un certain degré
d’imprévu, il existe aujourd’hui un vide de
responsabilité dès lors qu’il est impossible
de déterminer le ou les responsables.
Le système de valeurs posé par Asimov
ne permet pas de savoir qui sera responsable en cas d'accident causé par un
robot qui anticipe mal les besoins et
prend une initiative malencontreuse :
— le concepteur, en cas d’architecture
mal conçue ;
— le programmeur, en cas de faute dans
une ligne de code ;
— le fabricant, en cas de défaut ou faille
potentiellement dangereuse pour l’humain ;
— l'utilisateur, en cas d’usage non
conforme ;
VERS UN CADRE LÉGAL SPÉCIAL…
Les robots feront-ils évoluer le régime de
la responsabilité ? Aujourd’hui, leur situation, à mi-chemin entre l’Intelligence artificielle et la machine, fait d’eux des objets
juridiques non identifiés qui n’entrent pas
dans le cadre légal existant. Il faudra sans
doute attendre que la jurisprudence se
charge de faire évoluer la situation vers un
régime spécial de responsabilité.
Pour l’heure, les fabricants de robots ont
le choix entre trois options de vente :
— en version expérimentale ;
— en produits classés dangereux ;
— entre professionnels.
Pour le grand public, la vente des robots
doit être réservée à des personnes expérimentées car à défaut, c’est le cadre général de la responsabilité qui risque de
s’appliquer, avec toutes les conséquences parfois inadaptées qui peuvent
en découler.
PLANETE ROBOTS N°20
I94-95
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising