Plus de six mois après le lancement de ChatGPT et les multiples interrogations soulevées à travers le monde par les IA dites génératives, il est temps de faire un point sur l’évolution de la régulation de ces outils.
En attendant l’entrée en vigueur de l’AI Act, le règlement européen sur l’IA, cette régulation s’effectue aujourd’hui essentiellement par le biais des «conditions générales d’utilisation» (CGU) et de la «politique de confidentialité» associées à chaque outil. Et, dans ce cadre, quelques exemples concrets suffisent à montrer que c’est bien à l’utilisateur, tant dans son cadre privé que professionnel, de jouer un rôle éclairé et attentif. Ainsi, pour la version gratuite de DeepL, sachez que l’ensemble de vos interactions pourront être utilisées pour entraîner le système et que les CGU vous interdisent expressément d’entrer des données personnelles.
Utilisation de l’IA «à seul titre de divertissement»
Les CGU de Google vous apprennent que l’IA est déjà utilisée pour améliorer la performance de ses nombreuses applications, y compris par l’exploitation des données générées lors de vos interactions. Bien sûr, Google vous montre comment modifier vos paramètres pour refuser cette utilisation, mais c’est votre responsabilité de paramétrer convenablement votre compte, vos applications et votre navigateur. De même, pour les agents conversationnels, BING ne recommande l’utilisation de son IA qu’à titre de divertissement, tandis qu’Open AI souligne les limites de ChatGPT pour des diagnostics médicaux ou des conseils juridiques.
Les deux sociétés interdisent donc déjà dans leurs CGU la plupart des usages qui sont définis dans le futur règlement européen comme risqués au regard des droits fondamentaux (discrimination, manipulation des opinions, cyberattaque). Quel est alors l’enjeu?
En fait, avec le futur règlement, ce n’est plus l’utilisateur qui sera en première ligne mais bien les sociétés qui développent les AI génératives qui devront respecter des conditions fortes sur la qualité, la représentativité et la diversité des données utilisées pour l’entraînement de leurs systèmes. De plus, elles devront prendre en compte des contraintes liées au respect des droits d’auteur, à la cybersécurité et à la transparence.
Appel à l’information et la formation
Enfin, comme c’est déjà le cas dans d’autres secteurs, le futur règlement européen prévoit également une obligation d’enregistrement et des mécanismes de certification pour les IA dont l’utilisation représente des risques importants pour la sécurité, la santé ou les droits fondamentaux. Les grands acteurs qui développent et distribuent ces outils auront donc des comptes à rendre auprès des autorités de régulation, avec de lourdes sanctions financières en cas de manquement. Il n’est donc pas surprenant de les voir préférer s’appuyer sur des CGU, quitte à les étoffer si nécessaire.
Sébastien Kulling directeur de la Fondation digitalswitzerland
No hay comentarios:
Publicar un comentario