Les Futures Licornes ont déferlé sur Paris ce 10 septembre. Paul Jourdan-Nayrac, associé au sein du cabinet Gide accueillait au cœur de Paris la 8ème cérémonie des Trophées des Futures Licornes animé par Gilles Fontaine, rédacteur en chef de Challenges et directeur de l’innovation, aux côtés des membres du jury, prêts à rendre leur verdict. Le Grand Prix a été remporté par Descartes Underwriting, une société qui développe des solutions d’assurance climatique fondées sur des modèles de données et de calcul de risques paramétriques, pour protéger entreprises et collectivités face à des événements climatiques extrêmes. Le palmarès complet est à retrouver ici.
IA, un nouveau monde ? Question presque quotidienne, celle-ci l’était d’autant plus alors que la valorisation boursière d’Oracle et la richesse de son dirigeant grimpaient en flèche à la suite d’annonces du groupe dans l’IA avec des contrats cloud avec de grandes entreprises de l’IA, dont OpenAI, xAI, Meta, Nvidia… Du fait de l’IA, c’est nouveau monde qui s’empare des marchés.
Le général Pierre de Villiers, ancien chef d’Etat-major des armées, a ouvert la réflexion en rappelant une chose simple : un monde nouveau ne se prépare pas sans moyens, ni sans vision. Constat qui vaut aussi pour l’IA qui a des implications stratégiques majeures, notamment avec des capacités à mener des opérations de déstabilisation informationnelle, mais aussi des menaces en matière de cybersécurité. « Nous ne sommes plus capables de mener une guerre », a-t-il affirmé. « Il faut des munitions, de l’épaisseur avec une doublement des dépenses de défense d’ici 2035.
Dès lors, comment s’adapter à ce nouveau paradigme ? Eric Salobir, Président de la Human Technology Foundation, expert en éthique du numérique, entrepreneur et prêtre, nous a donné sa vision ce 10 septembre. Il a notamment mis en garde contre une société où la délégation croissante de tâches aux machines pourrait nous faire glisser d’un usage de confort à une forme de dépendance cognitive. « De l’assistant à l’assisté », résume-t-il, en référence à Downton Abbey, série britannique dans laquelle les protagonistes se font servir, jusqu’à perdre en autonomie. Pour Eric Salobir, la prochaine étape de l’IA sera celle des Large World Models, un concept développé par la chercheuse Fei-Fei Li, professeure à Stanford. Dans la continuité des Large Language Models, ces systèmes pourraient avoir une perception continue de leur environnement réel à l’aide de capteurs (vidéo, audio, IoT…), pour agir en interaction avec le monde physique. Une forme d’autonomie qui pose des questions de gouvernance et de responsabilité à l’échelle des entreprises. « Ce n’est plus un sujet IT, c’est un sujet de Comex », a-t-il insisté.
Le sujet ne concerne pas uniquement les entreprises, mais aussi les individus. Baptiste Detombe, essayiste, diplômé en philosophie politique, fonctionnaire parlementaire, auteur de L’homme démantelé, a rappelé que la dépendance cognitive aux écrans est devenue un fait social majeur. Selon lui, « l’économie de l’attention coûte à la France entre deux et trois points de PIB chaque année », si l’on prend en compte le temps capté par des usages numériques peu productifs, au détriment d’activités intellectuellement, socialement ou économiquement plus stimulantes.
L’actualité lui donne raison avec la publication du rapport de la commission d’enquête parlementaire sur les conséquences psychologiques de TikTok qui alerte sur cette dépendance et ses effets chez les jeunes cerveaux. Pour Baptiste Detombe, il pourrait être envisagé d’imposer aux grandes plateformes numériques de financer des campagnes de sensibilisation à la sobriété attentionnelle, sur le modèle des financements de campagnes anti-tabac par les entreprises vendant des cigarettes.
L’IA entraîne des enjeux importants et il est nécessaire d’en limiter les dérives. L’Europe a posé un premier jalon en légiférant en adoptant l’AI Act. Beaucoup y voient une réglementation. Il faudrait la lire comme une incitation à instituer la culture du risque dans les institutions comme les entreprises. Ce n’est pas forcément un carcan, mais une vision pour implémenter l’IA dans nos structures.
Plus généralement, le sujet est celui de la souveraineté sur l’ensemble de la chaîne de valeur de l’IA, et donc notre capacité à la maîtriser, entre autres via la réglementation.
« La réglementation IA, l’AI Act, est intéressante en ce qu’elle incite les institutions et les entreprises à encadrer la technologie par une ambitieuse gestion de ses risques », a rappelé Ysens de France, docteur en droit international, chargée de mission IA auprès de la Gendarmerie Nationale. A travers cette réglementation, le projet de réarmement technologique de l’Union européenne et de la France s’exprime sous la bannière de la « souveraineté ». Il faut néanmoins être vigilant face à la « guerre plus silencieuse, culturelle et idéologique, où chaque puissance projette ses propres valeurs et ses ambitions pour l’avenir à travers ses technologies ».
Pour Ysens de France, la souveraineté doit ainsi retrouver ses lettres de noblesse : « elle n’est pas seulement une protection contre, elle est une promesse pour », un projet positif donc, qui renforce la compétitivité des entreprises, fédère, protège les citoyens, contribue à leur autonomie sans les considérer comme de simples consommateurs. Il s’agit aussi d’un projet fédérateur, capable de réaffirmer l’autonomie des citoyens, considérés comme tels et non seulement comme des consommateurs. Enfin, il s’agit de « redonner du sens à l’action publique dans un monde dorénavant architecturé et façonné par l’intelligence artificielle ». Impossible n’est pas français.
Crédits photos : Charlène Yves