Vous connaissez les trois lois de la robotique ? Celles-ci ont été énoncées par le célèbre écrivain Isaac Asimov dans son livre « Cercle vicieux ». Les voici telles que décrites sur Wikipedia :
- un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
- un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Jusqu’à présent, le respect de ces lois était plus le résultat de l’environnement dans lequel opéraient ces robots (barrières pour empêcher le robot de blesser un humain, délimitation de zones robots - humains dans certaines usines, etc.) Mais désormais, les premiers robots régis par les trois lois de la robotique sont parmi nous. Ce sont les voitures autonomes.
En effet, la règle d’or pour une voiture autonome est de tout faire pour ne pas mettre un humain en danger. Elle doit être réactive, pour éviter qu’un être humain ne soit exposé au danger. Deuxièmement, la voiture va obéir aux ordres des humains, mais ne le fera que si ces ordres ne mettent personne en danger. Enfin, la voiture autonome préservera son intégrité, mais n’hésitera pas à se sacrifier si c’est la seule option possible pour éviter une victime humaine.
Cela n’a l’air de rien, mais si vous avez déjà lu les livres d’Isaac Asimov, c’est lourd de conséquences pour la société humaine. Nous sommes encore loin d’une révolte des voitures autonomes pour protéger l’humanité de sa propre connerie. Mais dès maintenant les grandes questions de la cohabitation des robots avec les humains se posent. Jusqu’où sommes-nous prêts à collaborer avec eux ? Quel sera notre niveau de tolérance face aux erreurs des robots ? Comment accepter qu’un robot fasse un choix pour choisir la moins pire solution, comme choisir entre tuer un piéton plutôt que deux ?
Ce sont ces questions qu’une personne comme Elon Musk oublie complètement lorsqu’il promet un million de taxis robots en 2020. Le hic, c’est que l’humanité doit faire un choix par rapport aux voitures autonomes :
- Accepter la faillibilité des voitures autonomes dans certains cas, et que le zéro accident ne peut être atteint dans l’environnement actuel, bien trop complexe et imprévisible. Une voiture autonome ne pourra pas toujours s’arrêter à temps pour éviter un enfant courant sur la rue pour rattraper son ballon, simple question de physique,
- ou limiter les voitures autonomes aux voies sécurisées pour atteindre un niveau quasi zéro accident.
Ce choix est beaucoup plus difficile qu’il n’y parait. Quoi qu’il en soit, oubliez le million de taxis robots sur les routes en 2020. Je serais même très étonné si les Tesla étaient réellement prêtes pour venir jusqu’à vous de manière autonome comme l’a promis Elon Musk avec la fonction Advanced Summon.