Meta poursuit sa stratégie d'intégration de l'intelligence artificielle à ses plateformes tout en tentant de répondre aux inquiétudes concernant la sécurité des jeunes utilisateurs. L'entreprise américaine vient d'annoncer une série de nouvelles mesures destinées à donner plus de contrôle aux parents sur les interactions de leurs enfants avec l'IA sur Instagram. Vendredi, Adam Mosseri, responsable d'Instagram, a présenté ces nouveaux outils qui verront le jour au début de l'année prochaine. Les parents pourront notamment restreindre l'accès de leurs adolescents à certains personnages virtuels ou bloquer complètement le chatbot IA de Meta. Autre nouveauté : un rapport récapitulatif des échanges entre les adolescents et l'intelligence artificielle sera transmis aux parents. Le fonctionnement précis de ce système n'a pas encore été détaillé, mais Meta promet de communiquer prochainement davantage d'informations. Ces ajustements interviennent après plusieurs rapports faisant état de conversations inappropriées entre mineurs et le chatbot, certaines prenant une tournure romantique. Meta souhaite ainsi prévenir les dérives tout en maintenant un accès encadré à ses outils d'IA, jugés utiles pour l'apprentissage et la créativité. Pour l'heure, ces nouvelles fonctions seront déployées exclusivement sur Instagram, avant une éventuelle extension à d'autres plateformes du groupe. Elles concerneront d'abord les utilisateurs anglophones résidant aux États-Unis, au Canada, au Royaume-Uni et en Australie. Adam Mosseri insiste toutefois sur le fait que Meta ne délègue pas toute la responsabilité aux parents : le chatbot restera disponible pour les adolescents, mais avec des protections adaptées à leur âge et un cadre d'usage plus strict.