Menée auprès de plus de 300 salariés marocains, l'enquête Kaspersky sur l'adoption de l'IA en entreprise met en lumière une adoption massive et spontanée de l'intelligence artificielle en entreprise, encore largement dépourvue de cadre, et révèle les nouveaux enjeux qu'elle pose en matière de sécurité et de gouvernance. Suivez-nous sur WhatsApp Suivez-nous sur Telegram Dans les entreprises, l'intelligence artificielle a déjà changé la donne. Discrète mais omniprésente, elle s'est glissée dans les habitudes professionnelles sans attendre les grandes stratégies de transformation digitale. Une adoption rapide, presque instinctive, qui révèle autant d'opportunités que de zones de fragilité. Selon Kaspersky, multinationale spécialisée dans la cybersécurité, rien qu'en 2024, près d'un milliard de cyberattaques ont été recensées, avec un volume impressionnant de 500.000 nouveaux fichiers malveillants détectés chaque jour. À titre de comparaison, ce chiffre s'élevait à environ 360.000 par jour en 2020. Une progression qui illustre l'accélération continue des risques numériques. Dans ce contexte, Kaspersky a mené récemment une étude consacrée à l'usage de l'intelligence artificielle générative en entreprise, en marge du Gitex Africa Morocco 2026, organisé à Marrakech du 7 au 9 avril courant. Réalisée en partenariat avec l'institut Averty auprès de plus de 300 salariés issus de structures de plus de 50 employés) représentatives du tissu économique marocain, cette enquête vise à mieux comprendre les pratiques et les usages liés à ces nouveaux outils. Premier constat : l'adoption de l'IA est déjà massive. Près de 57 % des employés déclarent utiliser des outils d'intelligence artificielle de leur propre initiative, sans cadre ni solution fournis par leur entreprise. 84 % des utilisateurs y ont recours plusieurs fois par semaine, dont près de la moitié chaque jour. Contrairement aux idées reçues, l'objectif principal n'est pas le gain de temps, mais l'amélioration de la qualité du travail, citée par 69 % des utilisateurs. L'usage est par ailleurs très régulier : 84 % y ont recours plusieurs fois par semaine, et plus de la moitié quotidiennement. Sans surprise, ChatGPT arrive en tête des outils les plus utilisés (84 %), suivi par Google Gemini (63 %). En revanche, les solutions intégrées comme celles proposées par Microsoft restent encore peu exploitées, avec seulement 23 % d'utilisation. Encadrer pour mieux avancer C'est sur le terrain de la cybersécurité que les signaux deviennent les plus préoccupants. L'utilisation d'outils externes s'accompagne d'un partage massif de données professionnelles, souvent sans réelle conscience des risques. Dans le détail, 42 % des utilisateurs importent des documents complets (PDF, présentations, fichiers Word), 35 % saisissent des données précises ou confidentielles, 35 % partagent des extraits d'échanges internes, 30 % transmettent des captures d'écran et seulement 19 % vont jusqu'à intégrer des données chiffrées sensibles (budgets, KPI, fichiers Excel). Mais cette adoption rapide repose essentiellement sur des initiatives individuelles, en l'absence de cadre clair. Ainsi, 75 % des salariés interrogés ignorent si leur entreprise dispose d'une stratégie liée à l'IA. Le manque de formation est également frappant, ce qui entraîne des usages souvent non sécurisés. Face à ces enjeux, Gladys Salmouth, directrice communication Europe, Afrique du nord, Centrale et de l'Ouest insiste sur un levier essentiel : la sensibilisation. « La cybersécurité ne doit plus être l'apanage des seuls experts IT. Tous les collaborateurs doivent être formés aux bonnes pratiques, notamment dans l'usage de l'intelligence artificielle générative », précise-t-elle. Elle recommande ainsi la mise en place d'une gouvernance claire et de règles d'utilisation adaptées. Même en l'absence d'outils internes sécurisés, il est possible d'encadrer les usages pour limiter les risques. Des programmes de formation et de simulation, comme les tests de phishing, peuvent également renforcer la vigilance des équipes. Pour les PME, souvent limitées en ressources, le recours à des partenaires spécialisés constitue une alternative pertinente. Ces derniers peuvent assurer la sécurité des systèmes, tout en accompagnant les entreprises dans la formation de leurs collaborateurs. Structurer l'écosystème à l'échelle nationale En parallèle, le Centre marocain de recherches polytechniques et d'innovation (CMRPI) vient également de dévoiler son étude dédiée à l'IA au Maroc. Celle-ci propose une lecture globale des enjeux, défis et freins liés à son développement, avec l'objectif d'éclairer décideurs et citoyens. « Si le Maroc a déjà franchi des étapes importantes, plusieurs lacunes subsistent », explique le président du CMRPI, Youssef Bentaleb. Parmi les priorités : l'instauration d'un cadre juridique spécifique à l'intelligence artificielle. L'étude insiste également sur l'importance d'investir dans les infrastructures, notamment les data centers et les capacités de calcul, ainsi que sur la nécessité de renforcer les budgets dédiés à la recherche et développement. Enfin, elle appelle à anticiper les mutations sociales induites par l'IA : préparation des citoyens, adaptation du marché du travail, évolution des compétences. Autant de chantiers structurants pour permettre au Maroc de s'aligner sur les standards internationaux et de renforcer sa compétitivité dans le domaine de l'intelligence artificielle.