Par exemple, Singapour, où un système sobrement nommé GreenMind — l’esprit vert, rien que ça — s’est vu confier la délicate tâche d’optimiser les politiques environnementales. Elle scrute les particules fines, les flux de circulation ou la consommation énergétique des citadins pour ensuite leur dicter les moments opportuns où ils pourront encore rouler dans leur berline. Pourtant, personne ne sait vraiment comment GreenMind décide ce qui est bon pour l’atmosphère, comme tous les algorithmes d’IA, celui de GreenMind n'est compréhensible en regardant son code.
Au Canada, l'IA sert la protection contre les feux de forêt. ne IA baptisée FireShield, Le bouclier du feu, qui ingère des images satellites, des données météorologiques ou encore des rapports de terrain, et en sort des instructions: qui évacuer, quand, où concentrer les camions de pompiers, quels axes routiers fermer, etc.
Sauf que, dans son élan, l’IA a un peu paniqué ; certaines zones ont été vidées de leurs habitants sans réelle nécessité. Des gens ont quitté leurs maisons pour rien, parfois dans la confusion et la panique.
L'Impertinent point du doigt le véritable problème : qui est responsable quand une machine se trompe? L’algorithme? Le ministère? Le type qui a écrit le code? Mystère.
D'autres pays se sont lancés avec plous ou mons de ferveur :
Le Royaume-Uni, le gouvernement a adopté l’IA avec la même ferveur, en particulier pour améliorer les services aux citoyens et faciliter les décisions liées au commerce.
L’Allemagne a confié une partie de sa justice au bot OLGA, développé avec IBM, afin de trier les affaires judiciaires et à accélérer le traitement des dossiers liés au scandale du DieselGate. C’est un outil de désengorgement, censé fluidifier une machine judiciaire lente.
Evidemment la Chine tient le haut du pavé : l’IA observe les comportements: consommation, lectures sur internet, publications en ligne ou déplacement dans l’espace urbain et en déduit une note pour chaque citoyen.
Le vrai problème est là : l'IA peut tout faire plus vite que n'importe quelle personne ou m'eme commission, mais "Mais elle n’est pas responsable. Elle ne rend pas de comptes. Elle ne se présente pas aux élections." l'autre problème est que l'IA ne se base que sur les faits historiques et aura tendance à perpétuer les travers existants "Le problème n’est pas que l’IA pense mal — c’est qu’elle pense comme ce qu’on lui a donné à manger."
Le chroniqueur de l'Impertinent, Fabrice Epelboin, présente un ouvrage de référence de 2 chercheurs en Suisse : "Lê Nguyên Hoang (aka Science4all) et El Mahdi El Mhamdi proposent dans leur dernier livre, Le fabuleux chantier, une réflexion salvatrice sur la façon dont nous pourrions construire, demain, des IA qui intègrent quelques chose qui, pour le code, s’apparente à ce que l’éthique est aux humains, afin d'éviter les dystopies qui pointent à l’horizon."
L'Algonaute collabore à l'association "Les Métiers du Numérique" ayant pour butde promouvoir et faire connaître les métiers du numérique auprès des entreprises de Suisse romande et renforcer les échanges entre les entreprises formatrices, les apprentis et les écoles professionnelles.
Rejoignez-nous