L'intelligence artificielle s'impose de plus en plus dans les services quotidiens, mais le cadre juridique marocain peine à suivre cette évolution rapide. Une étude récente du Centre démocratique arabe allemand révèle des failles importantes dans la législation actuelle, notamment en matière de responsabilité et de protection des consommateurs face aux décisions prises par des systèmes automatisés. Le rapport plaide pour une révision urgente des textes législatifs en vigueur. Alors que l'intelligence artificielle (IA) s'installe progressivement dans les usages quotidiens – assistants virtuels, plateformes de recommandation, services automatisés – une question cruciale se pose au Maroc : comment protéger les droits des consommateurs dans un environnement où les machines prennent des décisions à la place des humains ? Une étude récente du Centre démocratique arabe allemand (CDAA) met en lumière les failles du système juridique national dans ce domaine, appelant à une réforme urgente. L'IA est désormais omniprésente dans la relation client : choix de produits, gestion de contrats, traitement automatisé de demandes... Pourtant, le cadre juridique marocain n'a pas suivi le rythme de cette transformation. Selon l'étude du CDAA, les textes actuellement en vigueur, notamment la loi n° 31-08 sur la protection du consommateur, n'offrent que peu de réponses, voire aucune aux nouvelles problématiques liées à l'IA. Aucun article ne traite, par exemple, des conséquences juridiques d'une décision prise par un algorithme, ni ne définit qui porte la responsabilité en cas d'erreur ou de préjudice. Résultat : les consommateurs se retrouvent confrontés à des technologies complexes sans filet de sécurité juridique clair. Lire aussi : Dopée par l'IA, la demande d'électricité pour les centres de données devrait plus que doubler d'ici à 2030 Aujourd'hui, un client peut souscrire un contrat, effectuer un achat ou recevoir une recommandation entièrement générée par un système d'IA. Si tout se passe bien, l'innovation semble fluide. Mais que se passe-t-il en cas de dysfonctionnement, de mauvaise interprétation des données ou de dommages matériels ou moraux ? L'étude souligne que le sentiment d'impuissance juridique est réel, notamment parce que la notion même de « faute » devient difficile à établir lorsqu'elle découle d'un processus algorithmique. L'étude plaide pour la création de nouveaux mécanismes juridiques capables d'englober ces cas inédits, notamment par la définition d'un régime de responsabilité propre aux agents intelligents. Le CDAA suggère plusieurs pistes pour combler ces lacunes : adapter la législation existante, créer une jurisprudence dédiée, et surtout, établir des fonds d'indemnisation financés par les acteurs de l'industrie. Ces dispositifs pourraient servir à indemniser les consommateurs lésés, sans qu'ils aient besoin de prouver une faute humaine. Une autre piste évoquée est celle des assurances spécifiques, qui couvriraient les risques liés aux décisions automatisées. Mais là encore, sans cadre légal clair, ces outils peinent à se développer. Au-delà des questions techniques, l'enjeu est fondamental : il s'agit de préserver la confiance du public dans les innovations technologiques. Si les consommateurs estiment qu'ils ne sont pas protégés face à l'IA, ils risquent de se détourner de solutions pourtant prometteuses. Pour cela, il est impératif que le législateur marocain s'empare rapidement du sujet. Comme le souligne l'étude, l'IA n'est plus une perspective lointaine : elle est déjà là, intégrée dans de nombreux services accessibles à tous. Ignorer son impact juridique reviendrait à laisser un pan entier de la société fonctionner dans une zone grise, où ni les droits ni les responsabilités ne sont définis.