Aller au contenu principal
A propos d'HEC A propos d'HEC
Summer School Summer School
Faculté et Recherche Faculté et Recherche
Bachelor Programs Bachelor Programs
MBA Programs MBA Programs
Programme PhD Programme PhD
Executive Education Executive Education
HEC Online HEC Online
A propos d'HEC
En bref En bref
Qui sommes-nous ? Qui sommes-nous ?
Égalité des chances Égalité des chances
HEC Talents HEC Talents
International International
Sustainability Sustainability
Diversité et inclusion Diversité et inclusion
Fondation HEC Fondation HEC
Vie du campus Vie du campus
Rapport d'activité Rapport d'activité
Summer School
Youth programs Youth programs
Summer programs Summer programs
Online Programs Online Programs
Faculté et Recherche
À propos À propos
Corps professoral Corps professoral
Départements Départements
Centres Centres
Chaires Chaires
Financements Financements
Knowledge@HEC Knowledge@HEC
Grande Ecole
& Masters
Grande Ecole
Master in Management
Grande Ecole
Master in Management
Programmes
Masters
Programmes
Masters
Doubles
Diplômes
Doubles
Diplômes
Programmes
Bachelor
Programmes
Bachelor
Programmes
Summer
Programmes
Summer
Exchange
students
Exchange
students
Vie
Etudiante
Vie
Etudiante
Notre
différence
Notre
différence
Bachelor Programs
Vue d'ensemble Vue d'ensemble
Course content Course content
Admissions Admissions
Fees and Financing Fees and Financing
MBA Programs
MBA MBA
Executive MBA Executive MBA
TRIUM EMBA TRIUM EMBA
Programme PhD
Overview Overview
HEC Difference HEC Difference
Program details Program details
Research areas Research areas
HEC Community HEC Community
Placement Placement
Job Market Job Market
Admissions Admissions
Financing Financing
FAQ FAQ
Executive Education
Accueil Accueil
Qui sommes-nous ? Qui sommes-nous ?
Univers de formation Univers de formation
Programmes Programmes
Offres entreprises Offres entreprises
Événements/Actualités Événements/Actualités
Contacts Contacts
HEC Online
En bref En bref
Programmes Executive Programmes Executive
MOOCs MOOCs
Summer Programs Summer Programs
Youth programs Youth programs
A propos

Un débat pour éloigner la peur de la robotisation

Augustin Landier, professeur de finance à HEC Paris, et Jérôme de Castries (H17), directeur général Global Business Development  de la société Afiniti, ont été au cœur d’un débat animé, et diffusé en direct, sur le rôle du big data et de l’intelligence artificielle dans le secteur financier. L’événement a accueilli de nombreux entrepreneurs, journalistes et étudiants qui ont eu le plaisir de partager la vision des deux invités sur l’avenir du digital.

Petit-déjeuner HEC à Roland-Garros 2018 - Intervenants

Il y a quatre ans, le physicien mondialement connu Stephen Hawking avertissait les téléspectateurs de la BBC que « le développement d’une intelligence artificielle complète pourrait sonner le glas de la race humaine… » L’année dernière, le Smithsonian Magazine  a publié une longue étude prévenant ses lecteurs que presque la moitié des emplois américains seraient complètement automatisés « en une ou deux décennies » , ce qui pourrait mener au chômage de masse.

Ces prévisions alarmistes ont vite été dissipées par les deux intervenants du débat organisé par HEC Paris à Roland-Garros, durant la première semaine du tournoi du Grand Chelem. Les préoccupations liées au développement du big data et de l’intelligence artificielle (IA), et les liens avec l’automatisation de l’industrie, ont constitué le premier thème qu’ils ont souhaité aborder. « Bien que cette crainte des transformations technologiques soit compréhensible et récurrente, » a rappelé Jérôme de Castries, « il faut la surmonter, comme les entreprises ont su le faire au 19e  siècle. À cette époque, l’industrie a résisté à la pression des Luddites qui avaient peur de l’automatisation et ont même détruit des machines à tisser pour protester. Comme aujourd’hui, le système était capable de créer des emplois et de libérer les travailleurs des tâches les plus subalternes. »

« Le ratio humains / machines, comme le ratio humains / argent investi, indiquent clairement que la robotisation n’a pas mené à une disparition de l’élément humain dans l’industrie, » a insisté Augustin Landier, dans ses explications comme toujours dynamiques et didactiques. « On a besoin d’humains pour construire les robots, pour travailler constamment à leur évolution. Les robots nous permettent de multiplier notre capacité à agir vite et à comprendre tout aussi rapidement. En d’autres termes, il y a un savoir-faire qui se développe parallèlement à l’automatisation, ce qui éclaircit un aspect du problème : ce n’est pas parce qu’on robotise un secteur que l’humain devient périphérique. »

De nouveaux étudiants pour le monde digital 

Le ton était donné pour lancer une analyse exhaustive de l’impact que l’IA a pu avoir au cours des dernières décennies, notamment depuis son couplage avec le big data. Pendant le débat, Jérôme de Castries a ainsi évoqué sa success-story remarquable à la tête d’une des entreprises d’IA les plus prometteuses sur le marché mondial, Afiniti, afin d’illustrer son approche « humano-centrée » de la robotisation. Augustin Landier, de son côté, a su utiliser ses 15 années de recherches et d’enseignement au sein de certaines des meilleures institutions mondiales pour publier de nombreux travaux sur le développement de la robotisation, et émettre des appels répétés en faveur d’une automatisation capable de « sauver l’industrie, et donc de sauver des emplois. »

« De nos jours, » a-t-il expliqué, « cette évolution a ouvert le secteur financier à de nouveaux profils de professionnels capables de combiner tous les outils informatiques disponibles pour augmenter et maximiser notre capacité d’analyse. À HEC Paris, nous préparons nos étudiants à ces nouveaux métiers. Nous, les professeurs, nous efforçons de diversifier leurs connaissances pour qu’ils puissent bénéficier d’un enseignement orienté vers la gestion et la finance, mais aussi l’ingénierie et l’économie comportementale. » Augustin Landier est connu pour son analyse des clichés économiques, comme dans le livre « Dix idées qui coulent la France » , qu’il a co-écrit avec David Thesmar. Il a ensuite poursuivi ses réflexions sur les nouveaux types d’étudiants : « il faut abandonner le stéréotype disant que ce n’est que l’ingénieur qui a les mains sales. De nos jours, il y a toutes sortes d’outils disponibles pour analyser le big data. Alors nous, en tant que professeurs, encourageons nos étudiants à avoir des bases en management et en économie, mais aussi à être compétents en analyse de données et en psychologie. »

“Et pour nous, les professeurs,” a-t-il continué, « c’est une époque passionnante. Il y a énormément de programmes open source disponibles, et nous avons tous accès à cette incroyable ressource sur Internet. Très peu d’entre nous restent à la frontière de cette discipline, nous n’avons plus ce paradigme "top-down" avec des professeurs qui utiliseraient de vieux logiciels. Tout cela a disparu dans les années 90, pour être remplacé par les langages Python, R, et ainsi de suite. Cela rend l’enseignement beaucoup plus concret et collaboratif. »

Une régulation éthique et normative

Jérôme de Castries a encouragé les écoles de commerce à enseigner aux futurs responsables d’entreprises du secteur de l’IA trois capacités managériales essentielles : se concentrer sur l’usage de l’IA pour des tâches « simples » , découvrir et utiliser les outils appropriés pour mesurer la réussite d’une entreprise, et garantir que c’est le fournisseur (et non le client) qui prend des risques dans n’importe quel projet. Tout aussi importante pour lui, néanmoins, est la responsabilité éthique qui va avec la robotisation : « les étudiants ne doivent pas sous-estimer l’impact que cette nouvelle technologie peut avoir sur la société, et la responsabilité qui l’accompagne. Prenez l’exemple du développement d’armes autonomes capables d’exécuter des personnes sans intervention humaine. On ne doit jamais les développer ! Dans le passé, nous avons voté les Conventions de Genève pour prohiber les armes chimiques. Des débats et des actions similaires doivent être initiés pour nous sauver de catastrophes potentielles. »

Augustin Landier a complété le propos de Jérôme de Castries sur les mesures régulatrices nécessaires qui permettraient d’empêcher un usage abusif du big data dans les entreprises. Mais il a souhaité relativiser la panique qui s’empare de certains commentateurs lorsqu’ils évoquent ce problème « Nous avons vu des débats par le passé sur l’usage de l’ADN ou de la génétique par des compagnies d’assurance . Souvenez-vous des discussions sur l’usage abusif d’informations prédictives tirées de l’ADN, qui pourraient inciter ces entreprises à proposer des primes d’assurance plus ou moins élevées, selon les interprétations. Il y a donc un besoin de régulation normative sur l’usage de l’IA et du big bata. Et le monde académique doit fournir le travail préparatoire sur lequel on peut bâtir cette régulation. C’est une question passionnante, mais il faut la traiter avec une grande sérénité, car il n’y a pas de message apocalyptique derrière ce débat. »

Quand l’intelligence artificielle devient intelligence humaine

Le tournoi de Roland Garros était, à plusieurs points de vue, un endroit approprié pour ce débat organisé par HEC Paris. Rappelons tout d’abord que l’as de l’aviation était un ancien diplômé d’HEC (H1908), dont le nom incarne l’événement sportif depuis 91 ans. Roland Garros a rebattu les cartes de l’industrie aéronautique en modernisant ses moteurs pour battre des records mondiaux, notamment la première traversée de la Méditerranée en 1913.

Le tournoi a également été un laboratoire pour l’IA et le big data, par le biais d’IBM, ces 33 dernières années. L’entreprise multinationale a en effet testé ses programmes Watson , Jeopardy  et, plus récemment, Gary , durant l’événement sportif depuis son arrivée à Paris en 1986. Ces outils informatiques analysent et synthétisent les informations pour assouvir non seulement l’appétit insatiable des médias et des joueurs pour des données relatives aux matchs de tennis, mais également pour être utilisés par les organisateurs du tournoi afin d’éviter les cyberattaques ou de monitorer le trafic.

Le rythme du changement actuel enthousiasme certains, et en effraie d’autres. Il a par exemple inspiré les paroles de la PDG d’IBM, Virginia Rometty : « certains appellent cela de l’intelligence artificielle, mais la réalité est que cette technologie va nous améliorer. Au lieu de créer de l’intelligence "artificielle", je pense plutôt que nous augmenterons notre intelligence. » Mais pour le magnat américain Elon Musk les risques sont là, comme il l’a écrit sur Edge.org : « le rythme de progression de l’intelligence artificielle est incroyablement rapide. A moins d’être en contact avec des groupes comme Deepmind, vous n’avez aucune idée de cette rapidité, du rythme de croissance de l’IA, proche de l’exponentiel. La possibilité que quelque chose de vraiment dangereux puisse survenir se verra d’ici cinq ans. Dix ans maximum. »

Les débats se poursuivront certainement pour savoir quelle tendance dominera la prochaine décennie.