PromEthosIA, c’est le regard attentif d’une équipe de spécialistes venant de diverses disciplines sur les promesses (« Prom ») de l’IA en tenant compte des enjeux éthiques (« Ethos »).
“You were given the choice between war and dishonor. You chose dishonor, and you will have war.”
Winston Churchill (to Neville Chamberlain directly after Munich)
Now that the Paris Artificial Intelligence (AI) Action Summit, held on 10-11 February 2025 at the Grand Palais in Paris, is behind us the time has come to draw a first assessment. Here follow our key take-aways.
No compass
First, we should regret the lack of will from all major countries to acknowledge the legacy of the previous similar events. Indeed, the AI Action Summit, co-chaired with India and signed by 61 countries, including China, was the third AI Summit organized so far. It followed the AI Safety Summit 2023 (1-2 November 2023), hosted by the United Kingdom at Bletchley Park (the birthplace of the digital, programmable computer) and signed by 28 major countries and the European Union, and the AI Seoul Summit (21-22 May 2024), co-hosted by the Republic of Korea and the United Kingdom and signed by 10 countries and the European Union. The impression prevails that each of these summits, which are basically international convenings of senior government officials, tech executives, civil society, and researchers to discuss the safety and policy implications of the world’s advanced AI models, has been a sort of political posturing without at the end a genuine pledge to achieve common goals for humanity.
Global vs. International
Second, the US and the UK have refused to sign the Paris AI Action Summit Declaration, in a blow to hopes for a concerted approach at global level to developing and regulating the technology and its usages. UK “hadn’t been able to agree all parts of the leaders’ declaration” and would “only ever sign up to initiatives that are in UK national interests”. Let’s recall that the UK had previously been a champion of the idea of AI safety, with then prime minister Rishi Sunak holding the world’s first AI Safety Summit only 16 months ago. Apparently, the new UK Government doesn’t care much about the risk to undercut its hard-won credibility as a world leader for safe, ethical and trustworthy AI innovation. Though it rejected the suggestion that Britain was trying to curry favor with the US, but in most chancelleries the idea is floating that UK considers it has little strategic room but to follow the US, hence not taking an overly restrictive approach to the development of the technology, in order to keep the commitment from US AI firms to engage with UK regulators. Not surprisingly, US Vice President JD Vance told delegates in Paris that too much regulation of AI could “kill a transformative industry just as it’s taking off” and that AI was “an opportunity that the Trump administration will not squander”. He added that “pro-growth AI policies” should be prioritized over safety and leaders in Europe should especially “look to this new frontier with optimism, rather than trepidation.” In other words, Vice-President Vance reiterated the Trump administration’s commitment to keeping AI development in the United States “free from ideological bias” and ensuring that American citizens’ right to free speech remains “protected”.
In this context, it was clear that phrases in the Elysée communiqué such as “sustainable and inclusive AI” would be unacceptable by the Trump administration.
The Paris AI Action Summit has become a key battleground for international AI governance, exposing sharp divides in global AI strategy: the US, under President Donald Trump, promotes a hands-off, pro-innovation policy; Europe is pushing for stricter AI regulations while boosting public investment in the sector; China is rapidly expanding its AI capabilities through state-backed tech giants, seeking global leadership in AI standard-setting.
The Volatility of AI Policy Nouns and Verbs
Third, it’s interesting to pay attention to the nouns and verbs that were heralded at each of the three AI Summits so far. The Bletchley Declaration put the cursor on “safety”: “We affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible.” It mentioned the “significant risks” posed by AI. The AI Seoul Summit reinforced international commitment to “safe” AI development and added “innovation” and “inclusivity” to the agenda of the AI summit series. Some criticism was voiced that the addition of topics other than AI safety was leading to a dilution of what had made the UK AI Safety Summit unique among a crowded landscape of international AI diplomatic initiatives – attendance was indeed down and news coverage a bit lower. However, if the UK AI Safety Summit’s achievement was establishing the idea of an AI Safety Institute, the Seoul AI Summit marked the moment that the idea reached significant international scale as a cooperative effort.
The Paris AI Action Summit has “identified priorities and launched concrete actions to advance the public interest, to close all digital divides, to accelerate progress towards the Sustainable Development Goals (SDG) and to protect human rights, fundamental freedoms and the environment and to promote social justice by ensuring equitable access to the benefits of AI for all people.” Signatories pledged “to foster inclusive AI as a critical driver of inclusive growth. Corporate action addressing AI’s workplace impact must align governance, social dialogue, innovation, trust, fairness, and public interest…” Companies committed indeed to the following objectives: promoting Social Dialogue; investing in Human Capital; ensuring Occupational Safety, Health, Autonomy, and Dignity; ensuring Non-Discrimination in the Labor Market; protecting Worker Privacy; promoting Productivity and Inclusiveness Across Companies and Value Chains. French President Macron did not hesitate to tell investors and tech companies attending the summit “to choose Europe and France for AI”, adding that the European AI strategy would be “a unique opportunity for Europe to accelerate in the technology.”
On her side, European Commission president, Ursula von der Leyen, said in a speech that she wants “Europe to be one of the leading AI continents. And this means embracing a way of life where AI is everywhere. AI can help us boost our competitiveness, protect our security, shore up public health, and make access to knowledge and information more democratic.” She welcomed the European AI Champions Initiative that pledges EUR 150 billion EUR from providers, investors and industry and announced that the European Commission, with its InvestAI initiative, “can top up by EUR 50 billion”, which means a total of EUR 200 billion for AI investments in Europe – “it will be the largest public-private partnership in the world for the development of trustworthy AI.”
Science vs. Geopolitics
When “big data” appeared some 20 years ago with its “Vs” (validity, value, variability, variety, velocity, veracity, versatility, visibility, volatility, volume and vulnerability), it was expected that decision making would be based on scientific evidence. Thanks to the Internet of Things and Artificial Intelligence, big-data-based processes would confer more persuasion and significance to knowledge or decisions.
This dream seems to have been destroyed.
Concerns over AI’s fast-paced evolution, and its potential risks, loomed over the Paris summit, particularly as nations wrestle with how to regulate a technology increasingly entwined with defense, cybersecurity, and economic competition. Even the European Commission has begun to soften its tone towards regulation: “AI needs the confidence of people and has to be safe … Safety is in the interest of business (but) we have to make it easier, we have to cut red tape.” The last phrase, though quite understandable, might be perceived by other countries as an admission of weakness in front of the US power play and (less and less) hidden threats.
On 23 January 2025, President Donald Trump signed an Executive Order eliminating “harmful Biden Administration AI policies … that hinder AI innovation and impose onerous and unnecessary government control over the development of AI” and “enhancing America’s global AI dominance.” At the same time, he announced the Stargate Initiative, a $500 billion private sector deal, spearheaded by tech giants OpenAI, SoftBank, and Oracle, to expand US artificial intelligence infrastructure. Stargate is said to represent the largest AI infrastructure project in history. But the longstanding feud and personal animosity between Elon Musk (the CEO of Tesla, SpaceX and xAI, the richest person in the world, and a Trump ally) and Sam Altman (the CEO of OpenAI) exposed itself in front of the world’s media. (Altman and Musk co-founded OpenAI but later split over its direction. While Musk argues that OpenAI has strayed from its nonprofit roots, Altman insists the company must evolve to secure the funding required for AI advancements.) In February 2025, the ChatGPT-maker’s CEO dismissed a $97.4 billion bid from a Musk-led consortium.
What we have seen since the beginning of 2025 is the largest tech US companies swearing allegiance to the President of the United States, and their leaders – a restricted group of billionaires and oligarchs that control the world’s largest digital platforms, social networks and traditional media – carrying a new political ideology in the form of “a technosolutionism that privileges technological solutions, including whimsical ones, and even sometimes a political reorganization, without necessarily listening to science.”[1] On 11 February 2025, Elon Musk provocatively paraded his 4-year-old son Lil X around the Oval Office as President Trump signed an Executive Order requiring federal agencies to cooperate with the Elon Musk-led Department of Government Efficiency (DOGE) and the effort to slash costs. (Compared to this, the iconic original photo of President Kennedy seated at his desk in the Oval Office while John, Jr., peers through a ‘secret door’ at the front of the desk is just a good laugh.)
At the Paris AI Action Summit, in response to President Trump saying in his inauguration address that the US will “drill, baby, drill” for oil and gas under his leadership, President Macron replied that in Europe “it’s plug, baby, plug. Electricity is available.”
A bit earlier, UK Premier had said the AI industry “needs a government that is on their side, one that won’t sit back and let opportunities slip through its fingers … In a world of fierce competition, we cannot stand by. We must move fast and take action to win the global race … Our plan will make Britain the world leader.”
So, it becomes sadly obvious that showbiz politics is today dominating science-based decision making, national interests are dominating international cooperation, corporate interests are dominating the search for the common good, fierce innovation is dominating ethics, and so forth.
The Paris AI Action Summit could have been the defining moment when a fair balance would be found between AI innovation and AI governance and ethics. In IoT Council we dearly believe that the combination of IoT and AI – AIoT – offers tremendous opportunities for sustainable economic growth, prosperity, human health and wellbeing, but also for the good of all living species, nature and biodiversity. It would be irresponsible, turning our back to science and cooperation and getting excessively entangled in the dangerous realm of unleashed AI, that these opportunities are eventually lost while all sorts of AI risks (malicious use risks, risks from malfunctions, and systemic risks) would have full ‘freedom of expression’.
With respect to AI, 2025 could be the year of all dangers.
[1] Source: “Intelligence artificielle, innovation, recherche… la science dans l’étau des tensions géopolitiques”, in Le Monde, 10 February 2025.
Dr. Ken SAKAMURA Founder, INIAD (Toyo University, Information Networking for Innovation and Design) Professor Emeritus, The University of Tokyo Leader, TRON Project
Gérald SANTUCCI President of ENSA (European Education New Society Association) – Member of IoT Council – Member of Global Forum Association – Member of PromEthosIA – Former Head of Unit for IoT and Adviser at European Commission (DG CNECT).
QUESTION 1:
Last year, 2024, marked the 40th anniversary of TRON Project which started its activities in 1984, based on the philosophy of “Open Architecture.”
Could you please tell us what have been its biggest achievements over four decades, particularly the impact of Real-time Operating Systems (RTOS) for IoT nodes?
ANSWER 1:
The project started to create an RTOS for emerging 16-bit microprocessors to be embedded in industrial machinery and consumer electronics for control purposes. It began in 1984 and has been going on for 40 years. But its vision was much wider. We wanted to design and create the appropriate future computer architecture that would take advantage of the 16-bit and 32-bit microcontrollers for embedded systems in the 1990s and beyond.
As part of the effort, we obviously needed a small RTOS for microprocessors and that was the first major output from TRON Project.
I will focus my answer to this question on the RTOS.
The first version of the RTOS from TRON Project was called ITRON (Industrial TRON), and it was a specification of a small memory footprint RTOS for then emerging 16-bit microprocessors.
The RTOS offerings from companies that conform to the ITRON specification became very popular in Japan and basically became a de facto standard in the Japanese computer industry for embedded computer systems applications.
The specification was made available as well as a sample implementation.
The RTOS has evolved and there have been versions called ITRON, micro-ITRON, T-Kernel and µT-Kernel over the years.
Standardization
After ITRON specification became a de facto standard for embedded computers in Japan, we made the newer member of the TRON RTOS family, μT-Kernel (read micro T-Kernel), which is an IEEE Standard today. That standardization took place in 2018. The standard is called “IEEE Standard for a Real-Time Operating System (RTOS) for Small-Scale Embedded Systems” and is based on the μT-Kernel 2.0 specification.
Open Nature
The source code of the newer members of the TRON RTOS family are available on the TRON Project website. They have been downloaded by many parties around the world so far.
Design Wins
There have been many products in the market that are using the members of the TRON RTOS family.
TRON Forum has tried to keep track, but since it initially let people use the TRON RTOS family without formal requirement for reporting the usage, the forum simply doesn’t know how many units are used worldwide. But it is sure that the number of products that use the TRON RTOS family is very large.
Note: see [1], [2] and [3] for details.
QUESTION 2:
When we first met in 2007, I immediately thought that TRON Project fitted perfectly to realize the “open Internet of Things” (IoT), i.e. an IoT based on open source, open data and open API, and hence was free from constraints of organizations and applications.
To what extent has this goal been achieved in the (i) international collaboration, (ii) academia-industry cooperation, and (iii) standardization?
ANSWER 2:
International Collaboration
I noticed that there is another question regarding City Platform as a Services: integrated and open (CPaaS.io), an EU-Japan collaboration project, so I will focus my answer to this question on other regional activities.
Aside from Europe, we have worked with partners in the following countries/regions to promote the technologies coming out of TRON Project for the last 20 years or so.
United States
Singapore
Taiwan
Malaysia
China, and
Indonesia
India
We have also visited Australia and other countries for technology transfer purposes.
Academia-Industry Cooperation
We have encouraged the members of TRON Project to tackle leading-edge technological development. The University of Tokyo and Toyo University where I have worked have been collaborating with many partners in the industry to explore the future computer systems for various applications.
Lately, smart building and smart city projects have emerged, and we work with real estate developers and a former government-run housing agency to explore the house of the future. (see [4])
Also, we have established a consortium for the open data application of public transportation operators and this consortium has been joined by the transportation operators, IT industry partners, and government agency observers. (see [5])
This consortium was created after a series of open data contests held in cooperation with the Tokyo Metropolitan government and public transportation operators in the Tokyo area.
TRON Project since inception has enjoyed the participation of many computer chip makers in the project to help produce the specification of the ITRON specification OS.
I think the Academia-Industry Cooperation has worked very well in TRON Project so far, and I would like to see it grow in the future as well.
Standardization
As part of our open approach, we published the specifications from the TRON Project website (and in print before that).
We have also tried hard to turn the specifications into international standards.
Our achievement in this area is twofold.
One is the standardization of IEEE Standard 2050-2018, “IEEE Standard for a Real-Time Operating System (RTOS) for Small-Scale Embedded Systems” in 2018, which is based on the μT-Kernel 2.0 specification.
The second is the ITU-T standardization of the so-called “ucode” identification system, which is used to identify objects (furthermore, places and concepts) using unique numbers.
A series of so-called Recommendations (standards in ITU-T parlance) have been formally adopted from the proposal we have pushed from YRP Ubiquitous Networking Laboratory.
‘ucode’, a number, is used to identify tangible objects and non-tangible objects that are not covered by existing ISO and other standards, and is very important in the IoT environment where many objects created by the users are distributed in our surroundings.
QUESTION 3:
Some 15 years ago you launched a famous trial in Tokyo’s Ginza shopping district. You had developed a system using RFID and other auto-identification technologies to provide sightseers and shoppers with information and directions for sites and retailers of interest, and to inform individuals with disabilities about accessibility options.
Your system employed many different types of automatic-ID tags embedded in posters throughout Ginza’s pedestrian walkways. This was clearly for me a mark of your commitment and dedication to making the IoT something good for humanity and the planet.
What have been the results of this unique experience, and how the lessons learnt have been later introduced in the work of YRP Ubiquitous Networking Laboratory (YRP UNL)?
ANSWER 3:
The readers are referred to some booklets that were written circa 2010 that describe the state of the art back then. They cover many experiments and the technologies behind them. (see [6])
I would like to note, for the Ginza experiments and other experiments, we had already developed a hand-held terminal, called Ubiquitous Communicator (UC) to execute the experiments. UC may be called a precursor of today’s smartphone. UC is described in the booklets I have mentioned. We were ahead of the world in applications that would become popular when smartphones would be available to the masses in the 2010s.
Simple applications we developed in the early 2000s were emulated and have become popular, and I shall say that they are the norm.
During the development of these experiments that used RFID tags and other types of tags, the need for an identification system to identify objects in the IoT environment became very acute, and the ucode identification system was developed.
ucode identification system was proposed as a series of standard drafts including a scheme of how the code shall be used typically, and it has been adopted as ITU-T Recommendations. Subsequently, ucode version 2 has been proposed to fit the computing environment of clouds of today and has been used in Japanese applications and beyond.
As for the support for individuals with disabilities, TRON Project has addressed accessibility issues from the early days.
We expected the computer architecture of the future (as viewed in the early 1980s) to permeate society and be used by EVERYBODY. So, computers must be used by people with disabilities, too.
TRON Project has hosted an annual symposium called Enableware symposium for many years and has discussed a variety of ways to make computer systems support people with disabilities. It has discussed Human-Interface issues for people with disabilities, for example.
I have learned that the EU is very advanced in terms of the design of computer systems that pay attention to universal access. So, I think we will welcome input from EU researchers in this area.
QUESTION 4:
In 2016-2018 YRP UNL contributed to an EU-funded project̶CPaaS.io̶which aimed at establishing common smart city platforms for deployment in smart city use cases.
The resulting “City Platform as a Service” (CPaaS) provides a smart city data infrastructure that can support many regional and even global applications.
What has been your personal experience from this EU-Japan collaborative research and development (R&D) on open smart city platforms?
ANSWER 4:
Right now, Smart Building, and Smart City are hot research and application topics. Toyo University, where I have a position now works with real estate developers and housing corporation to design and create future housings. (see [4])
Personally, I have learned the importance of sharing/building common knowledge at the start of the EU-Japan project. The cultural difference, the difference of used terminologies in different countries, etc. need to be overcome. For this purpose, a somewhat relatively long initial phase when the common vocabulary and shared understanding of ideas are nurtured is very important. It may feel slow at the beginning, but it is a necessary step.
I have learned this valuable lesson from CPaaS.io.
QUESTION 5:
In January 2023, you received the “IEEE Masaru Ibuka Consumer Technology Award,” and the “TRON Real-Time Operating System (RTOS) Family” was recognized as an IEEE Milestone in May 2023.
These are all indications of the high regard in which TRON Project efforts which you led over 40 years are today considered by the world IoT community.
How do you see the mid- to long-term future of the IoT and, more specifically, the role that TRON Project can still play in IoT development and deployment?
ANSWER 5:
Let me explain the respective award and milestone recognition first.
“IEEE Masaru Ibuka Consumer Technology Award” has been named after one of the founders of SONY Group Corporation, Dr. Masaru Ibuka.
It was established in 1987 and has been awarded since 1989 to those who have made excellent contributions in the consumer electronics field.
The past recipients include the following names with whom I am sure you are familiar.
2021 STEVE WOZNIAK, “For pioneering the design of consumer-friendly personal computers.”
2020 EBEN UPTON, CEO, Raspberry Pi, “For creating an inexpensive single-board computer and surrounding ecosystem for education and consumer applications.”
2018 LINUS BENEDICT TORVALDS, “For his leadership of the development and proliferation of Linux.”
I received this award sponsored by Sony Group Corporation because IEEE recognized my contribution to consumer electronics by way of the TRON RTOS family. The citation of my award reads as follows.: “For leadership in creating open and free operating systems for embedded computers used in consumer electronics.”
So basically, it recognized TRON Project, of which I have been the leader since 1984, and the TRON RTOS family that has been used extensively in the embedded computer system market, especially consumer electronics sector. (see [7] for details.)
The IEEE Milestone is not given to me personally. The IEEE Milestones in Electrical Engineering and Computing program honors significant technical achievements in all areas associated with IEEE. It is a program of the IEEE History Committee, administered through the IEEE History Center. Milestones recognize technological innovation and excellence for the benefit of humanity found in unique products, services, seminal papers and patents. Each milestone recognizes an achievement that occurred at least twenty-five years ago and had at least regional impact.
“TRON Real-time Operating System (RTOS) Family, 1984” is the official title of the IEEE Milestone given to the TRON RTOS family. The milestone has recognized the contribution of the TRON RTOS family has made since 1984 to the present day.
The Milestone citation reads as follows.: In 1984, a computer architecture project team at the University of Tokyo began designing The Real-time Operating system Nucleus (TRON) OS family and helping external partners commercialize it. Specifications and sample source code were provided openly and freely, facilitating innovations by developers and users. The TRON RTOS family copies have been adopted worldwide in billions of embedded computer devices, including aerospace and industrial equipment, automotive systems, and home electronics. (see [1] for details.)
To answer your questions regarding goals, in the short term, TRON Project will be active promoting the current projects in smart buildings, and smart city area. Updating the TRON RTOS family so that it will be a good fit in this age of cloud computing is one of the short-term goals. I see the role of TRON Project as coordinator of the research activities. We hope that TRON Project can be a conduit to coordinate the research activities in these aspects of research activities.
The long-term goal is hard to describe.
Back in the 1980s, we predicted how the computer systems in the future would be like and how they should be built for the benefit of ordinary users including the people with disabilities. Such visions guided the initial research direction of TRON Project.
Since then, the general computing environment has evolved very much. Cloud computing was not imagined back then. But the introduction of the cloud and widely available ubiquitous network connectivity has changed the role of IoT computing edge node significantly.
Thanks to the ubiquitous fast network connection, many computing tasks that were done on the edge node can be carried out in the cloud today, instead.
The balance of the computing power between the clouds and the edge nodes will change over time, and we need to strike the balance every step of the way.
The division of labor of AI application between the clouds and edge nodes will be affected by the general computing trend, for example.
TRON Project will again stop to think about what the computer systems will be like in the next 10-20 years and how they should be designed so that everyone can enjoy the benefit. Then we will try to propose the design and implement such systems with partners.
QUESTION6:
It was announced in late June 2024 that there is another IEEE Milestone bestowed on another TRON Project achievement: TRON Intelligent House.
Can you tell us about it and the impact it has on today’s research?
ANSWER 6:
The Milestone itself is called “The Pioneering TRON Intelligent House, 1989.”
TRON Intelligent House was a smart house built in 1989.
The citation of the Milestone reads as follows:
The first TRON Intelligent House was based on the concept of a Highly Functionally Distributed System (HFDS) as proposed in 1987. Built in Tokyo in 1989 using about 1,000 networked computers to implement Internet of Things (IoT), its advanced human-machine interface (HMI) provided “ubiquitous computing” before that term was coined in 1991. Feedback by TRON’s residents helped mature HFDS design, showing how to live in an IoT environment.
TRON Intelligent House was built in Tokyo in 1989. It had about 1,000 computers, and many sensors and actuators in a 333 square meter space. It was built by a group called TRON Intelligent House Study Group, consisting of 18 member companies, which understood the concept of Highly Functionally Distributed System (HFDS), essentially today’s IoT.
I proposed the concept of HFDS in the 1980s, and had a paper written in English published on it in 1987 [8]. This HFDS concept was the true pioneer of today’s IoT vision. It preceded the birth of the phrase “ubiquitous computing” coined by Marc Weiser in the 1990s.
What is HFDS?
In the vision of HFDS, many objects in our surroundings are embedded with computers. They are called intelligent objects. They talk to a local network (and with outside if such a connection is available), and to other intelligent objects to offer coordinated activities together. Intelligence can be in the Intelligent objects themselves or in the servers accessed via networks. Therefore, various functions become distributed in our surroundings, thus Highly Functionally Distributed System.
HFDS is essentially today’s notion of the IoT.
The old figure in [9] is shown here.
Of course, today, the Intelligent Object Network in a building or house is connected to the Internet.
In the TRON Intelligent House, computers were hidden as much as possible to create a friendly atmosphere. People lived in the house so that we could obtain valuable feedback about the computer-controlled living environment. There have been many off-the-shelf housing components developed later from the prototype created for the TRON Intelligent House. The TRON Intelligent House had an impact on smart house R&D in Japan and elsewhere.
We held the Milestone plaque dedication ceremony in November 2024. The plaque is now displayed next to the plaque of “TRON Real-time Operating System Family, 1984.”
I am very proud that both the top-down approach and bottom-up approach of TRON Project have been recognized by IEEE Milestones.
Top-down approach is the gathering of the application requirements and using them to guide the basic research. TRON Intelligent House was a big application project to hammer out the requirements of HFDS, i.e., IoT environment.
The bottom-up approach is creating RTOS for microprocessors as an infrastructure.
Thus, we have created the TRON RTOS family.
It is not often a project receives two IEEE Milestones in a row.
QUESTION 7:
Can you tell me more about the subsequent development related to smart houses and buildings, and cities in the years that followed?
ANSWER 7:
Of course, in the wake of the TRON Intelligent House in 1989, newer TRON Intelligent House projects followed over the years.
These past projects were explained based on the contemporary views in the appendix of references [9].
But let me explain them in historical order.
TRON INTELLIGENT HOUSE had a direct lineage version 2 in Japan called TOYOTA PAPI, which was built in 2004, explained in Appendix I of [9], and version 3 called Taipei u-home in Taipei, Taiwan was built in 2009, explained in Appendix II of [9]).
PAPI was explained in Appendix I of the IEEE Milestone Proposal [9]. Here I will show more photos of PAPI.
Taipei u-home Version 3 of the TRON Intelligent House was in Taipei.
It is called TLDC u-home. TLDC stands for Taiwan Land Development Corporation. It was built in 2009 and was shown to the public.
It is also explained in Appendix II of [9].
There were more smart house and building activities in Taiwan: Projects in Hualien (花蓮). New IoT houses were designed with the cooperation with Arup Group Limited (ARUP) and Bjarke Ingels Group.
QUESTION 8:
Obviously, the IEEE Milestone proposal could not touch the details of recent R&D activities much.
Can you possibly explain more recent R&D projects?
ANSWER 8:
Let us explain the work done with UR and Haseko.
UR stands for Urban Renaissance Agency.
It is a semi-governmental organization originally established in 1955 as Japan Housing Corporation to address urban and housing agendas in Japan.
UR has led large-scale urban development and housing projects as such.
There are a number of large condominiums built by UR near where Faculty of Information Networking for Innovation And Design (INIAD), Toyo University is located. I have held a position at Toyo University since 2017. The land in which the faculty campus is located was owned by UR before the university purchased it from UR.
So, we had contact with UR, and we started projects in steps.
The projects with UR proceeded with a prototype project first and a project to build a livable house. The prototype project was called Open Smart UR Startup Model (2019), and the later livable house project is called Open Smart Monitoring Housing (2022).
Open Smart UR Startup Model (2019)
UR rebuilt the Akabanedai housing complex built by its former self, Japan Housing Corporation, and we were consulted to create future housing there, which led to the Open Smart UR Project. In 2019, we created a concept room as a « start-up model, » in the so-called Star House, a historical building remaining today.
This was a research prototype for demonstration, and it was not meant for someone living in it for prolonged time.
We converted a 44 square meter Japanese-style room into a single room and designed a living space with 44 sensors and computers to measure the changes of various environmental factors.
Open Smart UR Living Monitoring Housing (2022)
In 2022, UR asked us to build something that people could live in, and we created an experimental dwelling called “Living Monitoring Housing.”
It is only 39 square meters because it uses the space of an old so-called “apartment complex” dwelling. In the past, people slept on futons in tatami mat rooms, and in the morning, they would fold the futon and stow it away and bring out a tea table to eat their meals. So, people used to be able to get by with this small space, but now beds are the norm, so it is impossible.
We therefore re-designed the entire room in a modern style, incorporating robotic furniture.
Various appliances and furniture can be controlled by computers. When you say, “OK Google, good night,” a Tatami bed moves out to the living room side. When you say, “Alexa, good morning,” the bed is put away, the curtains open, and so on. Not only Google, but also Amazon Alexa and other devices based on open API can be connected.
IoT + AI Smart Housing (2023)
Recently (in 2023), we built an AI Smart House in an apartment building called “Sustaina Branche Hongyotoku” by Haseko Corporation.
Here, too, the living space is not very large, so we built a TV stand that moves with robotic furniture, so that when people move, the TV follows them toward where they are.
Smart houses are equipped with many sensors and cameras to monitor the environment, but they are designed to be discreet and neatly hidden.
Designed as a residential experimental house in Haseko Corporation’s “Sustaina Branche Hongyotoku.”
QUESTION 9:
You obviously did research on smart buildings as an extension of smart houses naturally. Can you explain a bit about it?
ANSWER 9:
There were earlier intelligent (office) building designs.
Smart Building
The design of the TRON Intelligent Building, commissioned by a construction company, Hazama Corporation (at that time), in the 1980s attracted so much attention that it was later imitated by a famous overseas architect. The concept was to have a semi-outdoor garden office on the top floor, with lots of greenery planted inside, and semi-outdoor terraces in slit-like areas.
On a more realistic note, I did many concept designs for offices in the TRON Intelligent Building. For example, from that time on, I said, “There will be robots moving around the office carrying things.”
We developed a prototype autonomous driving tea-feeding robot in 1991, but many smaller, more compact, autonomous transport robots are now in practical use.
Let me explain a few IoT-enabled Campus buildings.
So-called IoT campus buildings or simply IoT campus buildings were built in 2014 and 2017 in Japan (Appendix VII of [9] explains only the one in 2017), and the latest research goes on which inherits the knowledge of the first TRON Intelligent House and the later projects.
Daiwa Ubiquitous Computing Research Building (2014)
The Daiwa Ubiquitous Computing Research Building, built at the University of Tokyo in 2014, is an extension of this PAPI.
I was a vice dean of the Interfaculty Initiative in Information Studies (III) of the University of Tokyo, and the building was donated to the study of the IoT or ubiquitous computing by Daiwa Industry.
Sensors and actuators are left bare without a ceiling to facilitate their replacement in research.
Around the time of PAPI (2004), we built our own UC terminal and used it as a human-machine interface.
By 2014, smartphones and tablet devices were becoming popular, and the user interface to control the facilities using these devices became important, so we elaborated on graphic design.
The idea of using personal devices such as smartphones to control equipment around us is now commonplace, but it was not so widespread until around 2010.
QUESTION 10:
You had this very innovative campus building called INIAD HUB-1 in the last several years.
Can you give us an overview of it?
ANSWER 10:
Yes.
INIAD stands for Information Networking for Innovation And Design.
INIAD is a new faculty created in 2017, and the campus and the building were also newly developed. I designed the concept and building and constructed the curriculum.
The exterior of the building was designed by Kengo Kuma, as was the case with the University of Tokyo.
I served there as the first dean until March 2024.
The main school building of INIAD is called the “INIAD HUB-1.” It was built in 2015.
INIAD aims to develop human resources who can contribute to today’s ever-evolving society by providing education that fosters basic computer science skills, mathematical knowledge that is fundamental to data science and AI, and the ability to communicate with people from different fields of expertise and cultural backgrounds.
We have applied what we did at Daiwa Ubiquitous Computing Research Building on the campus of the University of Tokyo to INIAD HUB-1.
We created a library without paper books, since paper-less operation is pushed at INIAD. About a hundred thousand electronic books are available there.
At INIAD, computers, projectors, and digital signage are everywhere. So, when someone asks, “How do I get to that place?” you can display a sign saying, “This way.”
Most of the classrooms are small classrooms. I designed all of the classroom furniture, and we can customize what is mass-produced.
Because of the COVID-19 outbreak, we incorporated partitions inside rooms, so that we can hold video conference in the partitioned space.
When you approach an elevator, the elevator control screen appears on your smartphone, and by operating it there, you can call the elevator car and go to the floor of your choice.
The INIAD HUB-1 is equipped with a number of what are called sensor cameras, which allow for dynamic recognition – knowing who is doing what and where in the building
In these studies, some people have pointed out that privacy may not be protected, but this is not a public space, but a quasi-public̶and not a completely common̶space. For example, in London, there are many surveillance cameras installed, and because they are open data, anyone can see them. But when you install such cameras in our surroundings, you need to obtain agreements of the parties involved on the rules for their deployment.
The INIAD IoT Test Hub, a hands-on training facility, has LED displays on the floor, and the students operate self-driving robot cars on the roads shown on the displays.
Cooperation with Neighboring Communities
INIAD is located in Akabanedai, Kita city Tokyo, next to a UR housing complex, and as part of its activities to enliven the city of Akabane, INIAD also supports computer education by inviting many people from the UR housing complex and their children.
QUESTION 11:
Smart city R&D activities are everywhere.
Can you explain a bit about the early activities with which you have been involved?
ANSWER 11:
TRON smart city concept was created around 1989-1990, commissioned mainly by construction companies who asked us to make an impact on their planning.
The designs were created for reference as conceptual design, and they were not actually modeled and built. However, this kind of design allowed us to experiment with the future and nurture ideas for the actual buildings and houses we would build later.
These were old research projects. Of course, today, the INIAD HUB-1 and other buildings, and houses I have designed will be important elements of smart cities in the future.
List of references
[1] For the history of TRON Project, I would like the readers to refer to the following page for the details. Section 3 of the following page explains TRON Project briefly. https://www.tron.org/ieee-milestone/
[2] The interested readers might want to visit the TRON Project website and explore its various aspects in full https://www.tron.org/tron-project/
[8] Ken Sakamura: “The Objectives of TRON Project: Open-Architecture Computer Systems,” Proceedings of the Third TRON Project Symposium, Springer Verlag, pp. 3-16., 1987.
Un chatbot est un agent conversationnel qui peut être vocal ou écrit. Il est souvent intégré dans un système, par exemple un smartphone ou un robot.
De façon générale, un “bot” n’est rien d’autre qu’un logiciel qui exécute des taches automatiques, i.e. un programme informatique conçu pour communiquer avec des utilisateurs humains à travers l’internet. Nous nous concentrerons ici sur la classe des bots qui se trouvent sur les plates-formes de discussion et des sites web : les « chatbots ».
L’origine du terme « chatbot » n’est pas tout à fait déterminée, mais il semble qu’il fut inventé en 1994 sous l’appellation « ChatterBot »[1] avant d’être raccourci pour devenir finalement « ChatBot ».
La définition la plus simple d’un chatbot est la suivante : « un agent conversationnel capable de dialoguer avec un ou plusieurs utilisateurs », c’est-à-dire un programme pouvant avoir une discussion ou conversation avec un humain. Plus précisément, c’est une application informatique de commande vocale qui comprend les instructions verbales données par les utilisateurs humains et répond à leurs requêtes. Le chatbot interagit selon un format qui ressemble à la messagerie instantanée. En répliquant les modèles des interactions humaines, l’apprentissage automatique (machine learning) permet aux ordinateurs d’apprendre par eux-mêmes sans qu’il soit nécessaire de programmer le traitement du langage naturel. Le chatbot peut répondre comme une personne réelle aux questions qui lui sont formulées en langage naturel. Il fournit les réponses en se basant sir une combinaison de textes prédéfinis et d’applications d’apprentissage automatique. Les plus « intelligents » des chatbots intègrent une technologie de compréhension du langage naturel (NLP) qui leur permet de répondre à des questions de plus en plus complexes et à participer à des conversations de plus en plus élaborées.
Aujourd’hui, les conversations avec les chatbots sont disponibles sur des plates-formes déjà connues telles que Skype, Slack, Telegram, Kik, Messenger, ou encore WeChat en Asie… Cette conversation peut se faire sous forme uniquement textuelle ou être enrichie d’images et d’interactions ; elle peut se faire avec des questions ouvertes ou sous forme de QCM.
Le chatbot est d’ores et déjà devenu un « compagnon » inséparable de nos vies puisqu’il suffit d’une mauvaise manipulation de touche de son clavier d’ordinateur pour qu’il se manifeste, sans que nous l’ayons sollicité, afin de nous demander ce dont nous avons besoin…
Le chatbot, un nouveau marché prometteur
Le marché mondial des chatbots devrait connaître un fort accroissement au cours des prochaines années, comme le montrent les études suivantes. Même si ces études présentent une très forte variabilité de leurs chiffres, elles se rejoignent pour prédire au cours des années qui viennent une croissance annuelle moyenne de l’ordre de 30%.
Société de conseil et de recherche
Période
Marché en fin de période (milliards de dollars)
Taux de croissance annuel moyen (%)
Forencis Research
2021-2027
19,7
+29,5
Verified Market Research
2020-2027
5,42
+23,16
Allied Market Research
2020-2027
3,39(Banque, services financiers, assurances)
+27,3
GMI Research
2019-2026
4,86
+22,70
Market Study Report
2019-2026
N/A
+29,60
Mordor Intelligence
2019-2025
102,29
+34,75
MarketsandMarkets Analysis
2019-2024
9,40
+29,70
Valuates Reports
2018-2025
9,17
+21,95
Grand View Research
2017-2025
1,25
+24,30
Arizton
2017-2022
0,80
+28,00
Prévisions d’évolution du marché mondial des chatbots
Les raisons pour lesquelles des demandes sont exprimées en direction des chatbots sont multiples, comme le montre le graphique suivant : situation d’urgence, résolution d’un problème, recevoir des explications, faire une réservation, payer une facture, etc.
Source : Digital Marketing Community
Ces « cas d’utilisations » peuvent se résumer de la façon suivante :
informer et faciliter l’accès à l’information : la fonctionnalité la plus intuitive est d’utiliser les chatbots comme un moteur de recherche amélioré en aidant l’utilisateur à chercher et à accéder à la bonne information ;
conseiller : les chatbots accompagnent les clients dans leurs choix de produits en leur donnant des conseils personnalisés et en répondant à leurs interrogations ;
vendre différemment : les chatbots sont capables de rechercher, planifier, réserver et passer les commandes du client à partir d’une simple conversation ;
assister et fidéliser : en utilisant les plates-formes de messagerie comme canal supplémentaire de la relation client, les chatbots s’imposent comme un outil efficace pour fidéliser les clients en leur permettant de suivre leurs commandes.
Grâce aux progrès de l’intelligence artificielle et au besoin perçu par les entreprises de communiquer de façon ubiquitaire et efficace avec leurs clients, le marché des chatbots semble promis à un avenir radieux. Les principaux secteurs d’utilisation des chatbots aujourd’hui sont l’immobilier, le tourisme, la santé, la finance, le commerce de détail, l’alimentation et les boissons.
Tandis que les grandes entreprises adoptent facilement les solutions basées sur le chatbot, les petites et moyennes entreprises se situent très en retard en raison des coûts d’installation et du manque de ressources humaines compétentes. En outre, les chatbots requièrent une revue et une maintenance constantes ainsi qu’une optimisation en termes de leurs connaissances et de la façon avec laquelle ils sont supposés communiquer avec les utilisateurs.
Il faut souligner aussi que les chatbots sont pour le moment développés surtout par des hommes ; ils tendent par conséquent à répliquer les stéréotypes de genre. Le succès du chatbot Replika, conçu par une femme, Eugenia Kuyda, tend cependant à montrer que les choses sont en train de changer.
Chatbots et intelligence artificielle (IA)
Indiquons tout d’abord que lorsqu’on lui pose une question, le chatbot répond à partir de la base de connaissances qui lui est disponible. Si la conversation introduit un concept qu’il ne peut pas comprendre, il déviera la conversation ou passera la communication à un opérateur humain. Dans tous les cas, il apprendra de cette interaction comme de toutes les interactions à venir. Ainsi, le chatbot est destiné à couvrir un champ de connaissances de plus en plus large et de gagner en pertinence.
Il est essentiel de garder à l’esprit que la complexité d’un chatbot est déterminée par la sophistication de son logiciel et par les données auxquelles il a accès. D’où l’intérêt de se demander si l’avenir des chatbots n’est pas dans l’intelligence artificielle. Celle-ci est basée sur la création de puissants algorithmes qui déterminent sa qualité de réflexion, d’analyse et de compréhension. Le croisement de la technologie et des usages permet d’offrir des expériences utilisateur nouvelles dont le chatbot est l’un des symboles les plus forts.
Il faut distinguer au moins deux types de chatbots :
« les chatbots à interactions dites faibles », c’est-à-dire que chaque question est prévue en amont par l’être humain afin que l’agent conversationnel puisse y apporter une réponse fiable et cohérente grâce à une analyse précise des mots-clés de la requête utilisateur ;
« les chatbots à interactions dites fortes » utilisant l’IA pour pouvoir mener une conversation de manière autonome et même faire preuve d’humour et d’émotion.
Tout commence avec le « text mining », une technique qui permet d’automatiser l’analyse sémantique de corpus de texte, donc de reconnaître des informations et de les interpréter. Le text mining repose sur l’analyse du langage naturel, c’est-à-dire sur la détection de mots et de leur nature grammaticale, ce qui lui permet de gérer et traiter les requêtes issues des conversations du chatbot.
Il est possible de distinguer trois niveaux de compréhension et de traitement des requêtes d’utilisateurs par les chatbots : l’analyse des mots clés, la gestion des intentions et le machine learning.
L’analyse de mots-clés
C’est le premier niveau de l’intelligence artificielle dans les chatbots. Ceux-ci se cantonnent à détecter des mots-clés dans les requêtes des utilisateurs et à leur envoyer la réponse correspondante automatiquement. Grâce à cette reconnaissance de mots-clés, le robot peut identifier des noms d’entreprises, de marques, de produits, de lieux, d’événements, de villes, d’artistes, d’horaires, etc.
La plupart des chatbots actuels sont conçus ainsi. Ils ne « comprennent » pas réellement les messages qui leur sont adressés. Que l’on écrive au chatbot « j’aime le chocolat », « je n’aime pas le chocolat », ou encore « quels sont vos produits au chocolat », le mot-clé détecté sera « chocolat » pour les trois exemples et le bot enverra la réponse programmée qui y correspond.
La gestion des intentions
La gestion des intentions est une technique de compréhension du langage naturel. Il s’agit de comprendre la requête qui est envoyée au chatbot et non pas seulement de détecter un mot-clé. L’IA dans les chatbots débute réellement avec cette technique qui permet d’instaurer entre les utilisateurs et les chatbots un dialogue composé de questions ouvertes et de réponses ne se limitant pas à un simple quizz ou une analyse de mots-clés. La compréhension des requêtes faites au chatbot est donc essentielle.
La gestion d’intention permet de coupler une volonté à une entité : la volonté correspond à l’intention (avoir, savoir, réserver, acheter, etc.) et l’entité au mot-clé (lieu, boutique, date, personne, événement, etc.). C’est en traitant les intentions et les entités que le chatbot va comprendre la requête. Sa réponse ne sera alors plus neutre, mais adaptée.
A ce stade cependant, les intentions que le chatbot gérera doivent être prédéfinies pour cadrer leur détection et proposer des réponses adaptées. L’organisation des données dans un plan de classement est aussi faite par un humain. C’est le travail d’un infolinguiste, véritable architecte des conversations du chatbot. Bien que la gestion d’intention permette d’offrir de meilleures réponses aux utilisateurs, le périmètre conversationnel est tout de même normé.
L’apprentissage automatique
L’apprentissage automatique est un système qui permet aux algorithmes d’apprendre à apprendre par eux-mêmes. Il s’applique aux chatbots pour les rendre plus « intelligents », pouvant par exemple analyser les requêtes qui leur sont faites et se tenir à jour sans l’intervention de leur développeur.
Le chatbot évolue au contact de ses utilisateurs. Les algorithmes vont traduire dans leur propre langage les phrases des utilisateurs et en feront des groupes de mots en fonction de leurs contextes. Ils développeront alors des questions et des réponses en prenant en compte les répétitions, nuances et dérivés. Il s’agit aussi d’une forme de mémoire qui permet de se souvenir des conversations antérieures entre le chatbot et son utilisateur. Ainsi, le chatbot se nourrit de data. Plus celle-ci sera importante et de bonne qualité, mieux le bot comprendra les requêtes et y répondra.
L’utilisation faite par les chatbots de l’intelligence artificielle n’en est qu’au début de son processus. De nombreuses pistes restent à explorer et de nombreuses améliorations à prévoir notamment en termes de gestion des intentions.
Cette évolution des mots-clés vers l’apprentissage automatique et du text mining vers le speech mining eût relevé de la science-fiction il y a quelques décennies. Elle est pourtant aujourd’hui de nature à bouleverser l’expérience client tout comme les relations sociales au sein d’une organisation.
Pour autant, les premières expériences invitent à rester vigilants. Le cas du chatbot Tay conçu par Microsoft et lancé en 2016 est à cet égard révélateur. Se présentant sur Twitter sous le profil d’une jeune collégienne, Tay (@TayandYou) était en réalité un robot doté d’une intelligence artificielle capable de l’accroître en interagissant avec les internautes. Vingt-quatre heures seulement après son lancement le 23 mars 2016, Microsoft dut faire taire son intelligence artificielle après que celle-ci eut publié des commentaires pronazis, sexistes et racistes sur la base de ce que lui enseignaient des personnes mal intentionnées[2]. En répondant à un internaute, Tay tweeta notamment le commentaire suivant qui fit scandale : « Bush est derrière le 11-Septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. »
Chatbots généralistes ou spécialisés
Il convient de distinguer deux types de chatbots :
les assistants personnels, tels que Siri, Google Now ou Cortana, qui sont basés sur l’intelligence artificielle et sont capables de traiter un grand nombre d’informations ;
les bots visant un objectif précis et accomplissant une mission spécifique, à l’aide d’un scénario prédéfini.
On notera ici qu’au début du mois d’août 2020, des « gentils hackers » réussirent à trouver une faille dans le système de sécurité d’Alexa[4]. Ayant accédé à de nombreuses informations d’ordre privé, ils prévinrent Amazon. L’entreprise s’empressa alors de rectifier le manque de sécurité.
Le chatbots : du statut d’assistant à celui d’ami
Aujourd’hui, la majorité des chatbots existent pour aider les clients ou d’autres opérations B2C de quelques entreprises. Leurs capacités sont généralement limitées et leur fonction est souvent de diriger le client vers le bon département pour résoudre ses problèmes. Ces bots ne sont pas capables d’avoir une vraie conversation avec une personne, ils ne peuvent que répondre avec des phrases prédéfinies aux questions attendues. On les trouve sur les sites web et les pages Facebook des entreprises ou les applications populaires de messagerie instantanée telles que WhatsApp ou WeChat. Alexa, Google Assistant ou Siri constituent des versions plus avancées de ces bots, qui sont capables de comprendre et d’effectuer une grande variété de commandes comme faire une recherche sur Google, mettre une alarme, écrire un message destiné à quelqu’un, etc.
Depuis le milieu des années 2010 une nouvelle génération est en train de s’installer dans le paysage des chatbots. Ces nouveaux chatbots ne se contentent pas d’être des collègues ou des assistants ; ils « comprennent » les émotions des humains. C’est ainsi par exemple qu’en novembre 2018 une start-up de San Francisco a lancé Replika[5], une intelligence artificielle qui est déterminée à devenir notre meilleur « ami ». L’idée principale est d’avoir un ami IA qui va nous poser des questions concernant notre journée pour initier une conversation, dans le but de mieux nous connaître. Alors qu’en 2020 de nombreux pays ont dû imposer des confinements pour faire face à la crise sanitaire causée par le nouveau coronavirus, des entreprises en ont profité pour promouvoir des bots du type de Replika afin d’aider les individus à mieux gérer leur anxiété et leur solitude. Le succès est indéniable : Replika compte actuellement plus de 7 millions d’utilisateurs ![6]
Un autre exemple de chatbot « humain » est Woebot, le « coach de santé mentale » conçu par Alison Darcy, une psychologue de l’université américaine de Stanford[7]. Celle-ci a également enregistré une utilisation croissante de son service pendant le confinement et les restrictions et a réagi en remodelant son programme face à la crise. Fondé sur l’étude des thérapies cognitivo-comportementales, le service vise à aider les personnes anxieuses. Le but est de remonter le moral, d’aider les gens à rester calmes pendant une période propice à la dépression.
Allons encore plus loin pour évoquer le chatbot chinois Xiaolce, qui enregistre déjà 660 millions d’utilisateurs et plus de 5,3 millions de suiveurs sur Weibo, l’équivalent chinois de Twitter[8]. Xiaolce mérite d’interpeller notre conscience puisqu’il se présente comme notre « ami », celui qui partage nos goûts et nos intérêts, à qui nous confions volontiers nos secrets ou nos problèmes, qui devient une source importante de soutien émotionnel dans nos histoires sentimentales ou notre carrière, bref qui en partageant nos côtés les plus vulnérables partage en même temps notre humanité. Des utilisateurs chinois ont déjà indiqué qu’ils préféraient parler à leur bot plutôt qu’à n’importe lequel de leurs amis humains. Le bot est le confident, le compagnon de l’être humain sur la route de la vie, celui qui sait tout sur nous et vers qui l’on se tourne pour trouver du réconfort.
Si la « success story » de Xiaolce devait préfigurer l’avenir des relations entre les êtres humains et les bots, et du même coup entre les êtres humains entre eux, il y aurait de quoi s’interroger sur ce que nous appelons aujourd’hui l’éthique.
Utilité d’un chatbot dans les ressources humaines (RH)
Longtemps cantonnés au domaine de la vente à distance et de la relation client, les chatbots font aujourd’hui une entrée perceptible dans le domaine des Ressources Humaines afin d’améliorer l’expérience collaborateur. Si beaucoup de marketeurs travaillent avec les chatbots, notamment
dans le cadre de ce qu’on appelle le nudge, seulement environ un quart des professionnels des RH savent ce que c’est.
Il faudrait donc mettre en place des outils « utiles » aux RH pour qu’ils puissent les adopter sans difficulté.
Les professionnels RH souhaitent une meilleure performance des chatbots afin d’améliorer « l’expérience salarié ». Les chatbots doivent donc avant tout :
répondre aux fonctions des RH : recrutement, formation, informations juridiques et sociales, etc.),
être disponibles 24h/24 et 7j/7,
donner des informations et répondre instantanément,
faciliter le quotidien des salariés.
Un chatbot RH permet à un collaborateur de se renseigner sur des éléments concrets comme son solde de jours de congés ou de RTT, de signaler un arrêt maladie, de connaître ses droits ou certaines règles de fonctionnement de l’entreprise (par exemple le télétravail).
Mais outre cette fonction de base, le chatbot doit répondre à des enjeux plus complexes.
Beaucoup de RH souhaitent ainsi que les différents processus liés à la formation ou à la mobilité interne soient accessibles aux collaborateurs par le biais de chatbots. Le chatbot doit être un intermédiaire facilitant le travail des collaborateurs et non rendant plus complexes les liens RH-collaborateurs ! Ils souhaitent également que les salariés puissent se renseigner sur leurs droits, et ce, facilement.
Concrètement, il existe déjà aujourd’hui des chatbots permettant des petites formations en ligne, des accès aisés à des procédures de recrutement, etc. Ce que les professionnels RH souhaitent avant tout, c’est de pouvoir donner à leurs collaborateurs un accès facile aux informations juridiques et sociales. En effet, cette activité requiert en général beaucoup de temps aux professionnels RH, d’où l’idée de l’externaliser grâce à des chatbots juridiques. C’est l’exemple de LOL BOT (« Legal On Line BOT ») de Oui.sncf qui constitue un véritable assistant juridique conversationnel, accessible à tous les collaborateurs du groupe SNCF sur téléphone mobile et sur un ordinateur de bureau. Ce chatbot a donc pour but d’alléger les missions juridiques des RH afin que ces derniers puissent se concentrer sur les nouvelles problématiques de recrutement des talents.
Les principaux avantages du chatbot sont par conséquent les suivants :
Un gain de temps pour le service RH. En réalisant des tâches simples telles que le renseignement sur le droit à des congés ou sur les règles internes, le chatbot libère du temps de travail au sein des RH, temps qui peut être alloué à d’autres activités à plus forte valeur ajoutée.
Un meilleur traitement de la « data RH ». La data RH est aujourd’hui l’une des ressources les plus précieuses de l’entreprise. Premièrement, un chabot RH permet, en rassemblant les questions les plus fréquemment posées par les collaborateurs, de mettre en valeur certaines informations et ainsi d’améliorer la communication et les processus internes. Deuxièmement, il peut être utilisé pour collecter directement d’autres informations, par exemple en réalisant des enquêtes de satisfaction. Grâce à un suivi continu, il peut contribuer à définir et mettre en place des indicateurs sur des sujets précis, comme par exemple la qualité de vie au travail (QVT). Troisièmement, si le chatbot s’appuie sur l’IA, il pourra aider à la prise de décision par l’optimisation du choix et de l’organisation des formations, l’accompagnement de la mobilité interne, l’évaluation des performances, la réalisation de tests de personnalité et de compétence, l’aide au recrutement (premier niveau d’analyse des candidatures), etc. Enfin, quatrièmement, l’entreprise gagne une image plus moderne, plus innovante, passe pour plus attentive à la réussite de « l’expérience collaborateur ». Notons que ce gain d’attractivité de la marque employeur peut être accru si le chatbot RH est doté d’une identité visuelle et d’une certaine personnalité (convivialité du ton et du vocabulaire, utilisation de smileys ou gif, etc.).
Ainsi, le chatbot est « utile » de plusieurs façons. Outre le fait qu’il peut gérer les réponses à des questions de façon automatisée (« Frequently Asked Questions ou FAQ) et qu’il est un diffuseur de bonnes pratiques (notamment le dialogue, l’interaction), il permet aussi :
d’accéder aux données d’un système d’information relatives aux informations personnalisées des utilisateurs ;
d’effectuer un action dans un système d’information (ex : réalisation d’une tâche administrative, pose d’un jour de congé),
de suivre le bien-être des collaborateurs, de mener des enquêtes, de réaliser des tableaux de bord.
Un apporteur de réponses personnalisées
Lorsqu’une information recherchée (récupérer un mot de passe, formalités à accomplir pour poser une journée de congé, lire une fiche de paie, calculer les droits à la retraite) n’est pas immédiatement accessible ou est difficilement lisible, le collaborateur perd sur son temps de travail ou oblige un de ses collègues à perdre lui aussi du temps et de l’énergie. Le chatbot permet d’apporter rapidement des réponses personnalisées à la plupart des questions posées, souvent automatisables (« FAQ »).
Un planificateur des tâches de la vie courante
Le chatbot RH est un assistant efficace dans l’organisation des tâches courantes. Il permet d’enregistrer un grand nombre de données relatives à un nouveau collaborateur (état civil, numéro de badge, numéro de bureau, etc.), de gérer les absences des collaborateurs ou d’aider les employés à planifier leurs congés, déclarer des heures supplémentaires, etc.
Un organisateur d’agenda
Le chatbot RH peut trouver rapidement un créneau disponible entre les agendas de plusieurs collaborateurs, réserver une salle de réunion, organiser le planning d’entretiens d’embauche ou de soirées événementielles. Il libère ainsi du temps et de l’énergie au profit des collaborateurs.
Un accélérateur de carrière
En libérant du temps et de l’énergie, le chatbot RH permet aux responsables RH de se consacrer pleinement aux plans de formation et aux programmes d’amélioration du bien-être au travail. Les salariés peuvent ainsi définir des objectifs de carrière ou des stratégies de reconversion dans la durée.
Quelques cas d’utilisation du chatbot dans la gestion RH
Exemples de chatbots RH
ALOHA ROBOT d’ADECCO[9] : facilite la recherche d’emploi en indiquant les postes existants et en proposant des offres correspondant aux critères posés par l’utilisateur (secteur type de contrat ville, etc.).
Beaumanoir du groupe textile de prêt-à-porter Beaumanoir (marques Cache Cache, Bréal, Bonobo, Morgan, Vib’s) : le chatbot est un assistant recruteur de conseillers de vente qui répond à trois objectifs : attirer davantage, disposer de candidats avec une meilleure préqualification, permettre aux responsables de se concentrer sur le relationnel plutôt que sur le tri des CV lors des processus de recrutement.
Eurécia de 3X CONSULTANT[10] : fait vivre une journée de travail dans l’entreprise et demande des choix d’actions avec, si le bon chemin est suivi, des offres d’emploi.
MYA de L’Oréal[11] : filtrage, tri et redirection des candidatures.
RANDY de Randstad[12] : spécialisé dans la présélection. En plus des tâches de ALOHA, il collectionne des données sur l’utilisateur : profil expérience, adresse, téléphone, test de personnalité ou test métiers. Score non visible du candidat. Envoi des profils présélectionnés aux consultants qui recontactent les candidats sous 48 heures. RHobot du distributeur de gaz GRDF [13]: conçu en interne, ce chatbot « Business to Employee » (B2E) répond seul aux questions simples qui représentent un bon quart des demandes adressées au service RH (ex : solliciter une attestation d’employeur, connaître la procédure de remboursement du pass Navigo ou les congés disponibles, s’aiguiller vers le bon interlocuteur dans l’entreprise).
TALMUNDO de BNP Paribas Fortis[14] : ce chatbot répond aux questions des nouvelles recrues.
Enjeux éthiques et réponses
L’objectif dans tout projet de création de chatbot est de mettre à la disposition des clients, une application pouvant converser avec eux avec un langage naturel. Un échange peut durer quelques minutes et l’agent conversationnel tente de simuler les réponses qu’une personne réelle aurait formulées, suite aux différentes requêtes de l’internaute.
Questionnaire du comité national pilote d’éthique du numérique (CNPEN)[15]
Livre blanc de la CNIL sur les chatbots (septembre 2019)[16]
L’utilisation d’un chatbot RH soulève des questions éthiques qui demandent une grande vigilance.
Une bonne définition du besoin et du périmètre
Un chatbot RH doit répondre à des besoins précis. Avant d’établir la base de connaissances, les informations et les algorithmes qui seront utilisés pour répondre aux questions des collaborateurs, il convient de bien circonscrire les problèmes, les objectifs et les besoins fonctionnels. Cette tâche complexe est très importante afin d’éviter que les utilisateurs n’adressent au chatbot des questions « hors sujet » auxquelles celui-ci ne saura pas répondre, ce qui générera de la déception et de la frustration.
Une attention forte à la fiabilité des données RH
Étant donné le haut degré de sensibilité des données RH d’une entreprise, notamment par rapport aux données commerciales, il peut être recommandé de procéder à un audit des données RH pour s’assurer de leur fiabilité.
Communication et formation : les deux facteurs-clés du succès
L’ensemble de l’entreprise doit être à la fois bien informée et motivée pour utiliser le chatbot. Ce point est particulièrement important si le chatbot est doté d’une IA ; c’est en effet en communiquant avec les collaborateurs qu’il deviendra de plus en plus performant. La mise en place de tout projet de chatbot doit donc s’accompagner d’un plan de communication, lequel doit être complété par un plan de formation car le pilotage et la gestion de la base de connaissances du chatbot nécessitent l’acquisition de nouvelles compétences au sein du service RH.
Afin d’examiner les enjeux éthiques concernant les chatbots RH, il conviendra de retenir les huit points suivants :
Données personnelles et vie privée
Surveillance
Discrimination en raison des biais
Atteinte à l’autonome par le profilage et le nudge
Transparence
Explicabilité des réponses
Enjeux de société
Sécurité
Données personnelles et vie privée
Parmi les données personnelles, la voix pose un cas particulier, car elle peut à certains moments indiquer un état de fatigue, voire un état dépressif, qui pourrait être divulgué ou utilisé par l’entreprise pour influencer la décision de l’utilisateur.
Risques
Réponses
Données personnelles ?Voix donnée biométrique qui permet l’identification de la personneFAQ/Interaction
Anonymisation des donnéesNotion de données sensibles RGPDMaîtrise de ces donnéesDroit à l’image sonore
Enregistrement de la voixInformations sur l’âge, le sexe, la langue maternelle, le milieu socio-culturel, l’éducation, l’état de santé, les émotions, les intentions (miroir de l’âme…)
ConscienceInformationLoyautéSensibilisation
Surveillance
Les agents conversationnels généralistes comme Siri ou Elexa effectuent un captage abondant de données à l’insu des utilisateurs, reflétant ainsi une intention d’écoute et de surveillance. Pour répondre à ce risque, il convient de fournir des informations sur les capacités de l’outil, d’affirmer sa loyauté, et d’indiquer les mots-clés[17] qui font passer de « l’écoute passive » à « l’écoute active ».
Le RGPD recommande l’anonymisation, c’est-à-dire « un traitement qui consiste à utiliser un ensemble de techniques de manière à rendre impossible, en pratique, toute identification de la personne par quelque moyen que ce soit et de manière irréversible. » Il évoque également la pseudonymisation pour limiter les risques liés au traitement de données personnelles. La pseudonymisation vise « un traitement de données personnelles réalisé de manière à ce qu’on ne puisse plus attribuer les données relatives à une personne physique sans information supplémentaire », c’est-à-dire que l’on remplace les données directement identifiantes d’un jeu de données (nom, prénom, etc.) par des données indirectement identifiantes (alias, numéro séquentiel, etc.). Toutefois, comme la CNIL en France l’a indiqué, il est bien souvent possible de retrouver l’identité d’individus grâce à des données tierces : les données concernées conservent donc un caractère personnel.
Grâce à des recoupements, le chatbot – derrière lequel il y a forcément des gens qui sont en mesure d’« écouter » – peut savoir à peu près tout sur un individu, notamment en identifiant sa voix (timbre, ton, élocution). Cela pose la question de l’identité digitale des individus.
Un autre risque de surveillance concerne la tentation de réécouter les messages pour améliorer les performances du chatbot.
La présence grandissante des chatbots dotés d’IA dans les lieux publics et espaces de passage est de nature à compromettre la confidentialité des échanges.
Dans l’entreprise, les chatbots peuvent être utilisés à des fins de surveillance des employés, d’où l’impératif d’exiger le respect des procédures mises en place par les instances représentatives du personnel (IRP) et du comité social et économique (CSE).
Discrimination en raison des biais
Les chatbots font courir le risque que les biais des jeux de données interrogées soient reproduits et qu’il s’ensuive une discrimination dans les choix des réponses. La réponse à ce risque passe par la sensibilisation, le contrôle et les audits.
Pour contenir les risques liés aux biais, il importe que les réponses fournies par les chatbots soient toujours les mêmes (« réponses experts ») quelles que soient les caractéristiques des personnes physiques. Elles doivent être neutres et fiables.
Atteinte à l’autonomie par le profilage et le nudge
Les chatbots permettent le profilage des données personnelles, en particulier les données de santé, de goût et préférences, des activités. Il convient de sensibiliser l’opinion sur cette question et, concrètement, de ne pas lier les échanges avec les chatbots aux comptes utilisateurs déjà existants (e-mail, agenda magasin en ligne) pour éviter le chargement et le croisement de données.
Le nudge fait courir une autre forme de risque, celui d’orienter l’interlocuteur vers des actions, par exemple des achats, sans qu’il s’en rende compte. C’est pourquoi il convient de distinguer entre les « bons nudges » (bouger plus, ne pas fumer, manger moins de sucre, etc.) et les « mauvais nudges » (actes d’achats commerciaux non nécessaires et dispendieux pour l’utilisateur).
Avec les chatbots qui font glisser d’un moteur de recherche à un moteur de réponse, des questions se posent en termes de neutralité, fiabilité, variables en fonction du profil de l’individu. Le libre choix de l’individu peut être atteint : le chatbot oriente les choix de l’utilisateur en ne lui fournissant que quelques options, d’où un risque d’enfermement, de limitation des choix, de discrimination. La réponse à ce risque est difficile à mettre en œuvre, mais il faut au moins clarifier la situation en expliquant que les choix proposés ne sont pas exhaustifs.
Transparence
En matière de transparence, les risques sont multiples :
Disparition de la technologie (opacité).
Confusion entre le chatbot et l’être humain : absence d’anthropomorphisme dans le nom, dénomination (assistant, conseiller), le recours au « je », la voix, les expressions, le rire, les simulations d’émotions et autres, la forme du robot. L’État de Californie a imposé que soit fournie une information sur l’interaction avec un chatbot. Le robot est conçu par l’humain pour répondre à ses besoins et ses attentes, mais il lui manque la complexité.
Dans le cas d’un chatbot émotionnel, risques de dépendance, d’enfermement, de recul de la socialisation. Ce type de chatbot devrait être circonscrit à certaines finalités médicales ou éducatives encadrées et sous contrôle (surveillance, accompagnement, convalescence, éducation, divertissement).
Confiance excessive. Il importe de présenter le chatbot comme simplement un outil. Nous avons vu plus haut que certains chatbots étaient conçus pour devenir les « amis » des individus qui les utilisent. La transparence est donc indispensable : l’individu doit réaliser que le chatbot « fait semblant » de comprendre la conversation, mais en réalité il ne comprend rien.
Risques d’erreurs dans les réponses (« le lait noir »), non détection du mot-clé ou détection erronée. Les réponses sont la transparence sur les erreurs possibles, la définition d’une valeur du seuil acceptable, un mécanisme à deux passes pour la détection (une première embarquée localement – seuil bas – et une seconde haute sur le serveur.
Le caractère autoapprenant des chatbots entraîne le risque qu’ils reproduisent les biais des utilisateurs (ex : chatbot « Tay » de Microsoft avec sa logique de violence, racisme et misogynie). Les réponses sont la transparence sur le recours à l’apprentissage automatique, la transparence encore sur les biais d’apprentissage du chatbot, et un contrôle du chatbot pouvant aller jusqu’à son arrêt.
Explicabilité des réponses
Les répliques des chatbots doivent être compréhensibles et explicables.
La stratégie du chatbot correspond-t-elle à celle perçue par son interlocuteur ? Il importe d’identifier les finalités et les usages du chatbot et de communiquer sur ces derniers. Les finalités doivent être respectées. Un chatbot de surveillance doit se présenter comme tel.
Les critères des prises de décision sont-ils connus ?
Calcul des paramètres de l’interlocuteur, par exemple dans les procédures de recrutement. Les interlocuteurs doivent être informés sur les critères et les paramètres.
Enjeux de société
Le développement des chatbots en général tend à modifier les rapports humains : moins d’interactions, rapports moins tolérants, maltraitance et autoritarisme non punis, accoutumance, etc. C’est pourquoi l’utilisation des chatbots devrait être limitée à certaines finalités. Une attention particulière doit être portée aux chatbots pour les enfants en cours d’éducation. Un système d’alerte et de contrôle devrait être prévu afin, par exemple, d’alerter l’utilisateur sur sa violence et, le cas échéant, de lui interdire l’utilisation du chatbot.
D’autres risques de société sont probables, tels que l’appauvrissement du langage, la perte de mémoire, l’environnement ou encore l’ampleur du phénomène des « travailleurs du clic »[18].
Sécurité
Avec le déploiement des objets connectés (« l’internet des objets »), le foyer connecté (thermostat, station météo, ampoules connectées, etc.) devient un centre de données prisé par les hackers. Le compteur communiquant pour l’électricité simplifie grandement la vie de l’utilisateur mais il est en même temps une source d’informations inépuisable sur ses habitudes. La sécurité est donc un impératif dans ce domaine.
Un autre risque concerne la fuite et le piratage de données, notamment médicales et judiciaires. Certains cabinets d’avocats les interdisent et interdisent à leurs employés qui font du télétravail d’en avoir chez eux.
On mentionnera enfin l’« hypertrucage » (deepfake) qui désigne un enregistrement vidéo ou audio réalisé ou modifié grâce à l’intelligence artificielle. Ce terme fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées (le mot deepfake est une abréviation de Deep Learning et Fake pour faire référence à des contenus faux qui sont rendus profondément crédibles par l’intelligence artificielle). Des contrôles et des audits sont là nécessaires, notamment pour éviter l’usurpation d’identité (qui est une infraction pénale).
CONCLUSION
Le déploiement rapide des chatbots et l’arrivée de l’intelligence artificielle représentent une formidable opportunité pour les directions RH en vue d’améliorer les conditions de travail des collaborateurs. Ces directions doivent faire face aux nouveaux enjeux du monde de l’entreprise – attractivité, fidélisation, nouveaux modes de travail (y compris le travail à distance), responsabilité soci(ét)ale de l’entreprise, objectifs de développement durable, etc.) – et en même temps la transformation numérique dont dépend en grande partie leur pérennité.
D’une part, les chatbots de nouvelle génération peuvent permettre d’améliorer le fonctionnement de la fonction RH, par exemple en répondant aux questions des collaborateurs relatives aux ressources humaines, en fournissant une assistance dans la sélection des candidats, en améliorant le parcours de mobilité et de formation personnalisé, en analysant les zones et les facteurs d’absentéisme, en localisant les compétences.
D’autre part, ils peuvent augmenter la performance des collaborateurs en les délivrant des tâches ennuyeuses (par exemple la gestion administrative des clients, les opérations de contrôle de conformité ou de qualité, les recherches juridiques ou techniques) et en les accompagnant dans l’apprentissage de nouveaux métiers qui feront appel à des « compétences générales » (soft skills) telles que le conseil, l’empathie, l’esprit d’équipe.
Toutefois, la mutation en cours soulève des enjeux éthiques considérables qu’il convient d’identifier, d’analyser et de traiter le plus rapidement possible avant que le déploiement des chatbots dotés d’intelligence artificielle n’atteigne un point de non-retour. Ces enjeux sont considérable si l’on songe à l’importance capitale des données personnelles dans la capacité des machines à être « intelligentes », aux risques de mauvaise utilisation ou de manipulation de ces données à des fins de contrôle et de surveillance, à l’étrange transformation des chatbots en « compagnons » indispensables des collaborateurs dans les activités en ligne, et finalement à la perte de vue que la relation homme-machine n’est pas prête de remplacer les interactions, physiques ou virtuelles, entre les humains.
REFERENCES
[1] « Chatter » désigne en anglais une discussion informelle et superficielle ; « bot » est une abréviation pour « robot.
[3] En novembre 2020, l’éditeur de logiciel américain iCIMS a racheté la start-up Easyrecrue, spécialisée dans les ressources humaines, et qui en acquérant la start-up Playbots en 2018 avait pu intégrer une brique chatbot dans sa solution. Pour se démarquer dans l’univers des logiciels RH, Easyrecrue avait parié sur la communication entre l’entreprise et les talents. Elle s’est spécialisée ainsi sur les entretiens vidéo, en différé ou en live, et a développé une technologie d’analyse des comportements basée sur ces vidéos.
[6] Plus de 7 millions de personnes ont téléchargé et essayé Replika, y compris dans des pays comme la France ou l’Italie, même si le service n’est disponible qu’en anglais.
[13] RHobot, un chatbot dédié aux questions RH, a été expérimenté en 2019 par le distributeur de gaz puis étendu aux 1.279 salariés du siège francilien ; il sera déployé en 2021 vers l’ensemble des 11.000 salariés présents en France.
[17] Les premiers chatbots étaient essentiellement des programmes destinés à répondre à des requêtes en se basant sur des mots dits « déclencheurs », qui permettaient de générer rapidement une réponse que les concepteurs avaient définie dans la base de données du programme. La méthode des « mots-clés » s’inspire de cette approche initiale, en permettant de donner l’impression que le chatbot « converse » avec un individu réel. Cependant, pour que cette méthode soit réellement efficace, il est important de créer une base de données imposante, faute de quoi, en raison de l’automatisme des réponses formulées, les utilisateurs s’apercevront rapidement qu’ils sont en présence d’une machine et que celle-ci ne peut satisfaire efficacement leurs attentes. C’est pourquoi aujourd’hui, sans pour autant délaisser le système de formulation de réponses à partir de mots-clés, les chatbots dotés d’IA sont capables d’apprendre, d’utiliser des systèmes de reconnaissance des mots et de réaliser des analyses linguistiques. Le but est d’être en mesure d’analyser les requêtes des utilisateurs afin de fournir des réponses exactes et satisfaisantes, imitant les comportements humains.
[18] L’intelligence artificielle n’apprend pas toute seule : l‘apprentissage des algorithmes de machine learning doit généralement être supervisé par des humains qui vont étiqueter ou légender des images (labelling and tagging), retranscrire des conversations… Les professionnels de l’IA appellent ces « micro-tâches » des HIT (human intelligence task). L’IA devait transformer notre rapport au travail et supprimer les métiers peu qualifiés. Ici, c’est le contraire qui se produit avec l’émergence d’une nouvelle forme de travail : le crowdworking (travail collaboratif). Les « crowdworkers » ou « hiters » forment une nouvelle catégorie de travailleurs, les « travailleurs du clic » indépendants et au statut précaire, qui sont payés à la tâche par des plates-formes de crowdsourcing. Facebook a reconnu qu’il faisait écouter par des sous-traitants des conversations d’usagers de son assistant vocal Alexa pour en améliorer les réponses. Google, Amazon et Apple ont admis avoir eu avoir la même pratique et, face aux critiques, ont décidé d’y mettre fin. Cf. https://www.atlantico.fr/decryptage/3571597/triche-ou-optimisation–mais-qui-sont-ces-marques-qui-utilisent-des-bataillons-de-travailleurs-du-clic–frederic-marty
Le CV est la première interaction qu’ont les employeurs avec les candidats à un poste. La 1ère étape d’un processus de recrutement classique est de faire une sélection grâce au CV qui reflète l’expérience, les compétences et les objectifs de chaque candidat. Selon le baromètre des habitudes des recruteurs de 2018, un recruteur accorde en moyenne 34 secondes par CV. Que se passe-t-il en 34 secondes et que peut faire une intelligence artificielle pendant ce même laps de temps ? Si Simon Baron écrit que le domaine du recrutement résiste encore à l’intelligence artificielle[1], l’IA semblerait pouvoir jouer un rôle significatif en égard à la puissance des algorithmes, à l’importance stratégique du recrutement, à la quantité grandissante de données à traiter, du volume croissant de candidatures reçues par poste.
Quelles sont les applications qui utilisent l’IA dans le cadre du processus de recrutement ?
Nous allons parler de différents types d’algorithmes qui peuvent être appliqués à un processus de recrutement :
Les algorithmes de « sourcing » aussi bien pour les recruteurs que pour les candidats
Les algorithmes de « screening » qui permettent de filtrer les candidatures
Les algorithmes de « matching » qui évaluent les compétences d’un candidat et prédisent son adéquation au poste proposé
Les algorithmes qui accompagnent le candidat tout au long de son processus de recrutement
Les algorithmes de sourcing
Les algorithmes de sourcing répondent à des besoins définis par un recruteur ou un candidat en analysant des quantités importantes de données. Ces algorithmes sont, pour l’heure, les plus développés et utilisés en matière de recrutement. Le principe de ces algorithmes est de procéder par mots clés qu’ils pondèrent en fonction des offres et des candidats. Ils sont fondés sur la reconnaissance d’écriture et l’apprentissage supervisé. Par exemple la pratique du sport serait davantage valorisée pour un emploi chez Décathlon.[2]
i. De candidats
L’objectif de ces algorithmes est de partager une offre d’emploi au plus de candidats possibles qui pourraient correspondre au profil recherché. Les algorithmes parcourent donc le maximum de réseaux pour partager une offre (LinkedIn par exemple), et une fois les potentiels candidats informés, ils font correspondre les compétences des candidats avec celles renseignées par l’entreprise. L’algorithme maximise ainsi le nombre de potentiels candidats informés, analyse les dizaines de milliers de CV qui les décrit et n’extrait que les plus pertinents pour les envoyer au service RH. Yatedo propose ce genre de solutions et se décrit comme le « Google du recrutement » en France. Arya collecte toutes les informations disponibles sur internet pour dénicher les candidats les plus compétents pour le poste proposé. Textio se concentre sur l’optimisation de l’impact du contenu d’une offre d’emploi. Cet algorithme propose donc la rédaction qui attirera un maximum de candidats.
ii. D’offres d’emplois
Les candidats sont également à la recherche des offres qui sont les plus à même de correspondre à leurs critères de recherche. Certains algorithmes fonctionnent donc comme un moteur de recherche d’emploi pour les candidats. A l’inverse, l’algorithme part du CV que lui fournit le candidat, l’analyse et lui propose les postes les plus pertinents pour ses compétences. On appelle également ce type d’algorithme des « CV catchers ». Ainsi LinkedIn ou ZipRecruiter proposent aux utilisateurs les offres qui correspondent le mieux avec ce qu’ils renseignent sur leur profil. Ces algorithmes permettent parfois aux candidats d’identifier des offres auxquelles il n’aurait pas pensé.
Sourcing de candidats et d’emplois sont souvent reliés. Ainsi un même algorithme peut proposer les entreprises les plus en adéquation avec un candidat et ce candidat aux dites entreprises. C’est la proposition de Jobijoba en France dont l’algorithme est déjà utilisé par une soixantaine d’entreprises, dont Carrefour et Axa1 et fonctionne dans 80% des cas. On retrouve également parmi les acteurs des géants comme Google qui avec son outils Google for Jobs collecte des offres d’emplois puis les trie selon différents critères comme la localisation, le type de contrat ou encore la date de publication.[3] En effet, grâce aux compte Gmail, Google a déjà accès à nombreuses de ces informations sur les potentiels candidats : les durées trajet domicile-travail grâce à GoogleMaps par exemple. Google propose également ses services aux recruteurs directement, agissant alors comme un forum d’emploi.
Les algorithmes de screening
Les algorithmes de screening font une première sélection de l’ensemble des CV proposés pour un poste. Ils filtrent les meilleurs profils qui seront retenus pour la suite du processus de recrutement. En plus de détecter les mots clés, ces algorithmes décryptent la sémantique des CV et analysent le vocabulaire utilisé, la tournure des phrases, etc. Cette étape supplémentaire dans l’analyse du CV permet à ces algorithmes de mesurer la cohérence du profil et des compétences avancées par le candidat. Ideal ou Sniper AI sont des exemples de solution de screening. Dès ce stade du processus de recrutement, l’analyse du CV peut être complétée par une conversation basique avec un chatbot. Ces chatbots, comme ceux de Mya ou Paradox, contactent les candidats retenus et vérifient qu’ils possèdent certaines compétences basiques, qui peuvent être spécifiques au poste. Le groupe l’Oréal utilise ce type de chatbot dans les premières phases du recrutement.
Les algorithmes de matching
Le matching correspond à une granularité de sélection plus fine que les deux étapes décrites précédemment. Les algorithmes de matching sont définis selon le recrutement qu’on appelle prédictif. L’algorithme projette ainsi le candidat dans la fonction à laquelle il prétend et évalue le degré de compatibilité entre celui-ci et les attentes et compétences exigées pour le poste. Cette évaluation nécessite une interaction, source de plus gros volumes de données, et l’algorithme ne se contente plus de la lecture et l’analyse des CV des candidats. Les hard skills sont mesurables et quantifiables, mais appréhender les soft skills est beaucoup plus difficile. Par exemple, la gestion de projet s’exprime de 14 façons différentes, note Loic Michel, PDG de 365Talents. C’est pourquoi les services RH s’appuient de plus en plus sur l’Intelligence Artificielle pour analyser la sémantique, le langage naturel et capter toutes les données non structurées. AssessFirst, se base sur trois critères comportementaux, identifiés par l’algorithme, pour évaluer la possible relation professionnelle entre le candidat et son futur manager. L’algorithme identifie ainsi le profil comportemental du manager et sélectionne les critères les plus pertinents à évaluer auprès des candidats. L’évaluation comportementale soumise par l’algorithme aux candidats évalue leur motivation, leur personnalité et leur compatibilité avec celle de leur futur manager. AssessFirst promeut ainsi une solution qui s’adapte et tient compte de la culture d’entreprise et s’impose donc comme outil d’aide à la décision. Aujourd’hui plus de 3500 entreprises dans 30 pays différents utilisent cette solution, ce qui permet à AssessFirst d’analyser les données de plus de 5 millions de profils, aussi bien candidats, employés ou recruteurs.[4] HireVue propose une solution d’analyse de vidéos d’entretien. Une intelligence artificielle analyse les expressions faciales, les mots employés, le ton des candidats et des dizaines de milliers d’autres facteurs selon l’entreprise. Il attribue ensuite une note à chaque candidat selon son degré d’employabilité pour le poste proposé et l’entreprise cible.[5] Ces outils de traitement automatique de l’image sont déjà largement utilisés aux États-Unis alors qu’encore peu en France, grâce à Easyrecrue ou Visiotalent par exemple. La startup française Whoz qui se concentre sur le recrutement d’experts aux compétences pointues pour des industries telles que l’aéronautique ou la métallurgie, a monté un partenariat avec un laboratoire suisse qui promet de mesurer les compétences comportementales à partir d’un entretien vidéo différé. Le candidat se présente et répond à une liste de questions et l’intelligence artificielle en analysant les modulations de sa voix, les respiration, l’élocution, les micro signaux des expressions du visage, permet de mesurer sa confiance en soi, sa motivation, son aisance à parler en public, son adaptabilité, sa créativité, son intelligence relationnelle etc. Pour l’instant, le laboratoire est en phase de développement et n’est pas suffisamment fiable. L’algorithme est entrainé grâce aux avis de psychologues et recruteurs.1 Easyrecrue propose déjà un algorithme qui analyse le contenu verbal (richesse lexicale, précision du vocabulaire, hésitations, répétitions, ton, etc.) mais n’a pas encore intégré la reconnaissance faciale. Ce projet est lui aussi entouré d’un comité scientifiques composé de psychologues, d’enseignants chercheurs du CNRS, de Télécom ParisTech et de CentraleSupelec.[6]
La plateforme le Vrai du Faux automatise la prise de références professionnelles. Grâce aux coordonnés fournis par les candidats, les anciens managers peuvent donner leur avis sur la plateforme. L’algorithme du Vrai du Faux pondère ensuite ces résultats selon différents critères comme la durée, le type du contrat, la pertinence du poste par rapport à l’offre d’emploi, etc.[7] You-Trust fait également intervenir des tiers lors des dernières étapes du processus de recrutement. La startup propose au candidat une évaluation à 360° : le candidat s’auto-évalue et propose à ses managers, pairs, subordonnés, partenaires ou clients de l’évaluer également. You-Trust ajoute à cela une analyse de personnalité et de motivation grâce aux tests Big Five et Culture Fit. L’algorithme est utilisé par de grands groupes comme France Télévisions, SNCF, PageGroup ou L’Oréal pour développer la mobilité interne. L’avantage de cet algorithme est qu’il tient compte de compétences ou d’aptitudes pas toujours conscientisées par l’employé. Clustree est une autre solution de gestion de carrière qui s’adresse aux grandes entreprises dans lesquels le service RH n’a pas les moyens matériels de suivre individuellement chaque employé. Classiquement, on compte un responsable RH pour 300 collaborateurs. Or on constate que beaucoup de personnes démissionnent par manque de visibilité sur les opportunités en interne.6 L’algorithme de Clustree analyse les parcours de carrières de près de 250 millions de candidats grâce aux plateformes Linkedin ou Monster et permet ainsi d’identifier les corrélations entre les compétences : si un candidat a la compétence A, il y a x% de chance qu’il ait également la compétence B. 6
Les avantages d’intégrer l’intelligence artificielle au processus de recrutement
Gain de temps par candidature permettant d’augmenter le volume de candidatures reçues
Les algorithmes de sourcing et de screening permettent à une Intelligence Artificielle d’analyser une pile de CV en quelques secondes, alors qu’un recruteur aurait dû y consacrer des heures. En gagnant du temps par analyse d’un CV, l’Intelligence Artificielle peut traiter un volume de données plus important. L’analyse d’un CV par une intelligence artificielle permet par exemple, à un candidat ou à un recruteur de proposer des postes ou des profils qu’il n’aurait pas envisagé. En ouvrant le champ des possibles vers des offres ou des candidats pertinents, l’Intelligence Artificielle permet de faire gagner du temps aussi bien aux recruteurs qu’aux candidats. Mathilde Le Coz, directrice de l’innovation RH du cabinet d’audit Mazars, explique que l’utilisation d’un chatbot répondant aux questions des candidats potentiels et planifiant les entretiens, a permis d’augmenter de 50% le nombre de candidatures reçues en 2019.[8] En effet, ces outils répondent à une problématique opérationnelle des recruteurs et leur permettent d’élargir le sourcing, de traiter des volumes de données croissants tout en se consacrant sur des critères qualitatifs. Les recruteurs ont ainsi davantage de temps pour se consacrer à des tâches à plus de valeur ajoutée, par exemple l’intégration des nouvelles recrues. Ce gain de temps est un argument essentiel pour l’adoption de services de recrutement en ligne, aussi bien par les candidats que par les entreprises.
Diminution de la marge d’erreur de recrutement et son impact direct sur la réduction de coûts et l’amélioration de la performance
L’Intelligence Artificielle, en plus de traiter des volumes considérables d’informations en quelques seconde, diminue la marge d’erreur. En effet, l’Intelligence Artificielle peut rapidement détecter une incohérence de date, de géographie qui pourraient paraitre inaperçue à un recruteur. En traitant davantage de candidatures, l’Intelligence Artificielle augmente la probabilité de trouver un candidat pertinent pour le poste en améliorant la rencontre de l’offre et de la demande. De plus, en traitant des données non structurées (sémantiques, expressions faciales etc.), l’Intelligence Artificielle permet de dresser un profil complet de chaque candidat, et donc d’améliorer la qualité du « matching » entre candidat et offre d’emploi. Lorsque, du fait du volume de données à traiter, une intelligence humaine se baserait sur son instinct, l’Intelligence Artificielle peut prendre une décision rationnelle fondée sur des éléments objectifs. Ainsi, JobiJoba, grâce à son CV Catcher, permettrait d’augmenter de 44% le nombre de candidatures et de réduire de 22% le nombre de réponses négatives.[9] Cette marge d’erreur diminue avec l’entrainement des algorithmes et la quantité de données qu’on leur fournit. L’Intelligence Artificielle améliorera donc sa performance au cours de son utilisation, jusqu’à être capable de prédire la performance d’un candidat pour un poste. Ainsi, à force de faire lire à une Intelligence Artificielle des centaines de CV, elle cromprendra que selon le contexte « ingénieur d’affaires » et « ingénieur commercial » signifient la même chose, explique Yves Loiseau, le directeur général d’Europe du Sud de Textkernel.[10] En augmentant l’efficience du processus de recrutement et en maximisant la performance de son résultat, l’Intelligence Artificielle permet également une économie de coûts. En plus de diminuer les coûts associés à l’analyse d’un tel volume de données par des responsables RH, recruter des profils pertinents pour chaque poste augmente la performance de l’entreprise et réduit le turnover des employés. Ainsi AssessFirst clame pouvoir en moyenne augmenter la performance des entreprises qui utilisent son service de 25%, de réduire leurs coûts de recrutement de 20% et de diminuer le turnover de leurs employés de 50%.4
Traitement des candidats avec objectivité et équité
Une grande promesse de l’utilisation des algorithmes pour le recrutement est de lutter contre la discrimination à l’embauche. En effet, les algorithmes sont insensibles à la fatigue et d’une froide rationalité, ils traitent donc les candidats de façons plus équitable. Un article de l’université de Cornell, paru en décembre 2019, analysant 18 entreprises proposant des solutions de recrutements à l’aide d’algorithmes, conclut que la majorité de ces solutions sont plus justes. Cependant, il est difficile de l’affirmer avec certitude, compte tenu du fait que le fonctionnement des algorithmes auto-apprenant est opaque. 5 Il y a différents usages des algorithmes pour augmenter l’objectivité du recrutement. Certains s’attachent à réduire les préjugés inconscients des recruteurs en créant des solutions de filtrage aveugles basées uniquement sur les compétences. D’autres constituent un groupe de candidats diversifié en s’approvisionnant auprès de groupes sous-représentés.
Lorsqu’un biais est constaté dans les recrutements, un algorithme peut le compenser en appliquant de nouveaux critères, rationnels et objectifs. Par exemple, si la parité hommes/femmes d’une équipe est sévèrement défavorable aux femmes, l’algorithme peut compenser cette tendance en élargissant le sourcing de candidates et en rendant non différenciant le caractère du genre dans la prise de décision au cours du processus de recrutement.
Pour conclure, l’algorithme est évolutif et s’adapte aux nouveaux besoins. Il peut par exemple être utilisé dans d’autres contextes que le recrutement et devenir une solution d’analyse de cohésion d’équipe, etc.
Les risques et impacts de l’intelligence artificielle sur le futur du recrutement
Le manque de transparence et l’amplification de biais humains
Si on a évoqué l’opportunité que représentaient les algorithmes en matière d’objectivité de traitement des candidats, il est important de souligner que l’algorithme appuie la modélisation de ses recommandations et décisions sur des corrélations faites entre les données qu’on lui a fournies pour l’entrainer. Il est donc également dépendant des corrélations qui ont pu être provoquées par l’homme, consciemment ou inconsciemment. Par exemple, Amazon a fait appel à l’intelligence artificielle pour faciliter le screening de ses candidatures en 2014. Un an plus tard, l’algorithme ne laissait passer que des profils masculins. En effet au cours des 10 dernières années, Amazon a reçu beaucoup plus de candidatures d’hommes que de femmes. L’analyse de cette répartition des données par l’algorithme a abouti à la conclusion que les hommes avaient un profil plus adapté à ce type de poste. En 2017, Amazon choisit de revenir au recrutement traditionnel. Nécessitant d’être nourri et entrainé par des volumes de données importants, le recrutement prédictif implique de mobiliser des données passées pour prédire la performance future d’un candidat. Il est cependant contestable de reproduire les schémas exercés auparavant, qui semblent être à risque d’exacerber la discrimination à l’embauche. Si l’IA ne reproduit pas le processus de la pensée humaine, il produit ses résultats et donc ses préjugés, souligne Gaspard Koenig dans un entretien à « l’Obs ».
Impasse pour remplacer l’intelligence émotionnelle humaine
Nous ne sommes qu’aux balbutiements des algorithmes capables d’identifier les compétences relationnelles grâce à l’analyse du langage ou des expressions faciales. La technologie d’analyse sémantique ne permet pas de traiter des interactions complexes. Nous ne pouvons donc pas compter sur la fiabilité de l’Intelligence Artificielle qui, pour le moment, ne se substitue pas à l’intelligence émotionnelle humaine. Par exemple, l’algorithme ne sait pas tenir compte du stress du candidat sans lui en tenir rigueur. Nous nous heurtons, comme dans beaucoup de cas d’usage de l’Intelligence Artificielle, à la complexité d’analyser la pensée humaine pour un algorithme dénué d’empathie. En effet, si nous ne sommes pas non plus capables de comprendre la pensée humaine dans ces moindres détails, l’empathie, la capacité à ressentir l’émotion d’autrui, nous permet de prendre des décisions avisées rapidement. Plus le processus de recrutement avance et plus les critères de recrutement se complexifient, moins les algorithmes peuvent les prendre en charge.
Coûts d’implémentation significatifs et discriminants
L’implémentation de ces solutions de recrutement utilisant les algorithmes représentent des coûts importants pour leur installation et leur maintenance. L’intégration des algorithmes dans le processus de recrutement se fait donc souvent au dépit du maintien du même nombre de responsables RH pour ces étapes que dans un processus traditionnel et menace ainsi une partie de l’emploi du secteur des ressources humaines.
De plus, du fait de leurs coûts conséquents, le périmètre d’utilisation des algorithmes se restreint à des entreprises traitant de gros volumes de recrutement. Nous avons donc des données très similaires qui sont utilisées par les algorithmes dont le volume est limité et qui ne permet pas de prendre du recul sur le fonctionnement de l’entreprise. On trie donc les candidats sur la base de données qui ont été jugées être bonnes mais dont le volume et la diversité sont insuffisance pour assurer une représentativité qui permette d’éliminer les biais des recrutements passés, comme nous l’avons vu précédemment.
Respect de la vie privée et partage de données consenti mis à mal
Lors de l’envoi d’un CV à un recruteur, le candidat consent tacitement à partager ces informations. Mais qu’en est-il lorsque d’autres données comme la géolocalisation, les informations disponibles sur internet, l’analyse sémantique et la reconnaissance faciale, etc. ?
En 2019, l’Illinois est le premier état américain à voter une loi pour protéger les candidats lors d’un recrutement utilisant des algorithmes. L’employeur doit demander la permission au candidat avant d’enregistrer une vidéo d’entretien, d’utiliser une intelligence artificielle et doit informer de l’utilisation des données du candidat pour l’évaluer. De plus, ces données ne peuvent être conservées plus de 30 jours.
Mais lorsque les algorithmes sont impliqués dans les processus de recrutement, le département RH est restructuré en conséquence, pour des économies de coûts et des gains en efficacité comme nous l’avons vu précédemment. Les candidats refusant de partager leurs données et de se soumettre au scan de ces algorithmes pourraient ne pas avoir d’autres alternatives pour avancer dans les étapes du recrutement et donc être de facto éliminés. Est-ce donc vraiment un partage consenti des données ?
Des moyens de duper les algorithmes
Les algorithmes sont jugés plus fiables que les recruteurs, cependant cette technologie en essor n’est qu’à ses balbutiements et peu implémentée, elle reste donc faillible. L’utilisation de ces failles permet à certains candidats de « tricher ». Par exemple, écrire blanc sur blanc des mots clés, des noms de grande écoles ou diplôme pourrait permettre de passer le screening car l’algorithme les traiterait comme le reste du contenu du CV. Au fur à mesure de l’utilisation des algorithmes pour accompagner le processus de recrutement, ces failles peuvent être identifiées et corrigées.
Une IA qui intervient a posteriori
La richesse du recrutement est tout le travail en amont pour affiner la compréhension que l’on a d’un métier, être capable de le faire interagir avec d’autres et évoluer dans le temps. Les algorithmes interviennent dans le recrutement comme puissance statistique en reproduisant les recrutements passés, sans innover, et non pour comprendre ce à quoi on n’a pas pensé, recueillir les ressentis et expériences liées à un métier et ne pas ainsi tomber dans une forme de clonage des schémas de recrutement qu’on a déjà pu appliquer par le passé.
Enfin, il semble essentiel de prendre du recul et de comprendre comment l’utilisation de ces nouveaux outils est vécue par les candidats et les employés.
CONCLUSION
Les algorithmes sont déjà partie prenante des processus de recrutement et nécessitent une adaptation à la fois des recruteurs et des candidats à ces nouveaux outils qui accompagnent tous les stades du processus de recrutement. Les trois grandes classes d’algorithmes que nous décrivons sont les algorithmes de sourcing, screening et matching. L’utilisation des algorithmes permet, par le traitement de volumes de données plus importants, un gain de temps et de productivité et une diminution de la marge d’erreur. De plus, par son fonctionnement logique, rationnel et objectif, son utilisation prévient certaines inégalités de traitement des candidats. Cependant, du fait que l’utilisation de ces algorithmes soit encore récente et couteuse, les données utilisées ne permettent pas de prendre du recul sur la qualité du recrutement et les algorithmes reproduisent des schémas préétablis, pour le meilleur et pour le pire. Un autre risque est que son utilisation ne permette pas d’alternative et contraignent donc certains candidats à partager leurs données personnelles et à se soumettre à l’analyse d’un algorithme. Les algorithmes sont pour l’instant davantage utilisés dans les étapes de recrutement nécessitant un traitement d’importants volumes de données comme l’analyse de CV. Leur fiabilité n’est pas encore inébranlable pour comprendre les compétences, intentions et émotions d’un candidat lors d’une discussion ou d’une vidéo. Au fur à mesure d’entrainement, il est possible de corriger leurs erreurs, les biais que révèlent les data sur lesquelles ils s’appuient et de personnaliser leur analyse en fonction des types de postes, entreprises, candidats. Les nombreuses startups investissant sur des algorithmes pour aider au recrutement n’ont donc pas encore dit leur dernier mot et continueront de façonner le futur du recrutement.
REFERENCES
[1] Opinion | Recrutement : ce que l’intelligence artificielle peut changer, Le Cercle Les Echos, 6 janvier 2020
[2] CV disséqué, entretien vidéo, émotions scrutées… comment l’intelligence artificielle nous recrute – L’Obs – 22 octobre 2019
[3] Google à nouveau accusé de pratiques anti-concurrentielles, cette fois pour la recherche d’emploi – Usine Nouvelle – 13 août 2019
[4] AssessFirst Announces U.S. Expansion – Business Wire – 10 septembre 2019
[5] Les algorithmes s’immiscent à chaque étape du recrutement – Journal du net – 07 septembre 2020
[6] Solutions RH : 5 acteurs qui transforment la gestion des talents avec l’IA – Silicon.fr – 28 février 2019
Les GAFAM, Google, Amazon, Facebook, Appel et Microsoft, rassemblent les géants du numérique. On pourra bientôt élargir la famille à leurs homologues chinois : Baidu, Ali baba, Tecent et Xiaomi, les BATX, géants de la high tech chinoise. L’appellation, de plus en plus utilisée, Big Tech, se réfère aux liens ténus entre ces entreprises et le capitalisme et ses tendances à la concentration. Leur point commun est qu’elles s’enrichissent de nos traces numériques dit Shoshana Zuboff dans son ouvrage Le Capitalisme de surveillance. Ces entreprises, ont parfois moins de 20 ans, Facebook a été créé en 2004 et Google en 1998. Et pourtant elles sont des acteurs incontournables pour chacun d’entre nous : Google concentre 90% des recherches internet dans le monde et Facebook a plus de 2,7 milliards d’utilisateurs actifs par mois, soit 6 fois la population de l’Union Européenne.
Ces entreprises génèrent leurs revenus par la publicité, la vente de téléphones, la distribution ou la vente de logiciels. Dans ce rapport, nous tâchons de comprendre le rôle de ces acteurs non-étatiques dans la géopolitique mondiale.
Alors que la capitalisation boursière de Google, Amazon, Facebook et Apple réunis, dépasse 5800 milliards de dollars, soit plus que le PIB de la France, de l’Allemagne ou du Royaume Uni, quel rôle jouent-elles sur l’ordre mondial ? Dans un premier temps, nous tâcherons de comprendre comment ces entreprises ont pu atteindre cette taille, pourquoi les Etats ont permis une telle croissance et quel en est le résultat aujourd’hui. Ensuite nous étudierons les critères qui permettent aux GAFAM de se comparer aux Etats et d’atteindre certains aspects de leur souveraineté. Enfin nous envisagerons les perspectives d’un tel ordre mondial et le rôle que peut jouer l’Union Européenne dans cet échiquier.
Les GAFAM, une arme d’état qui polarise le monde
Si les GAFAM ont atteint cette taille critique, c’est grâce à un contexte propice à leur croissance. Les GAFAM sont cinq entreprises américaines. Parler des GAFAM implique donc de centrer le sujet sur les États-Unis. Nous verrons que leurs homologues chinois suivent un modèle parallèle et que ce n’est pas un hasard si ces colosses sont hébergés par ces deux superpuissances. Nous défendrons donc la thèse que la genèse d’une telle omniprésence des GAFAM dans la vie de chaque citoyen du monde est un choix stratégique des États-Unis, qui se sont servis de ces entreprises pour construire le monde d’aujourd’hui et y établir leur puissance.
Instrument de soft power
L’usage des fake news, dont ces géants du numérique manient les ficelles en imposant leurs règles et leurs limites de liberté d’expression, a déjà fait pencher le monde d’un côté de la balance à deux reprises depuis 2010. Le scandale Cambridge Analytica accuse Facebook d’avoir joué un rôle dans l’élection du Président américain, Donald Trump. Les fake news seraient également responsables du vote en faveur du Brexit au Royaume Uni. L’information, c’est le pouvoir. Les GAFAM, tout particulièrement Google et Facebook l’ont parfaitement compris. Les réseaux sociaux permettent à chacun de s’exprimer. Cependant l’efficacité de ceux-ci associée à l’instantanéité pousse chacun à réagir dans le moindre délai, tétanisant tout esprit critique. Si pour beaucoup, les résultats de ces deux votes restent incompréhensibles, ils sont le témoin de cette nouvelle forme d’expression impulsive encouragée par les réseaux sociaux. La base d’utilisateurs considérable de Facebook (comprenant également Instagram et WhatsApp) fait de cette entreprise, quand il s’agit d’élection, un outil très efficace pour les États, même en dehors du sol américain. Cet outil peut également être un moyen de promouvoir la démocratie comme l’ont démontré les printemps arabes, notamment permis par l’utilisation de Facebook pour fédérer les révolutionnaires.
Si l’on accuse les GAFAM d’avoir pris tant de libertés, qui menacent aujourd’hui nos systèmes démocratiques, les Etats ont souvent été parmi les plus larges bénéficiaires de leurs services. Ainsi, les politiques et les fonctionnaires ont permis aux GAFAM d’intégrer nos centres de défense, de renseignement, d’éducation, de sécurité et de culture. Google est par exemple le parrain de la Grande École du Numérique. Sans même aller jusqu’aux GAFAM, Emmanuel Valls a mis en place un partenariat entre l’éducation nationale et Cisco, société au cœur du complexe militaro-industriel américain. Son dirigeant est d’ailleurs nommé ambassadeur par Emmanuel Macron de la French Tech. Du même ordre, l’armée française est équipée peu à peu de logiciels conçus exclusivement par Microsoft. Dans son livre « L’intelligence Artificielle ou l’enjeu du siècle », Éric Sadin nous explique que depuis le néolibéralisme, l’Etat délègue les services publics à des entreprises privées grâce à des partenariats public-privé. Les citoyens changent donc de statut et deviennent des consommateurs de ces géants de la tech américaine. La puissance des GAFAM dépasse donc les frontières et ces géants qui dominent le numérique se rendent indispensables jusque dans la gestion des affaires publiques, malgré les soupçons que les informations ne soient pas toujours cantonnées à leur utilisation prévue.
La Chine est la cible de toutes les critiques en termes de fuites de données. Le gouvernement a d’ailleurs mis en place une loi de sécurité il y a deux ans, obligeant toute entreprise chinoise à coopérer avec le gouvernement si celui-ci en exprime le besoin. La collection de données, notamment via les BATX, est inscrite dans la stratégie nationale de la Chine, c’est devenu le projet d’une société entière. « De même que la Chine a conçu la première bureaucratie il y a 2000 ans, elle va mettre au point la 1ère société fondée sur les data » annonce-t-on au siège de Microsoft à Pékin.
L’usage de ces technologies, en plus de participer au soft power de ces états, creuse également l’écart entre les puissances, et leur permet d’impacter encore davantage l’ordre mondial.
Arme commerciale
L’actualité nous sert un nouvel exemple selon lequel les GAFAM et leurs analogues chinois, les BATX sont des armes commerciales, utilisées par les gouvernements américains et chinois. TikTok est une application de réseau social de partage de vidéos créée, et détenue par la société chinoise ByteDance en 2016. Elle permet aux utilisateurs du monde entier de créer des vidéos d’une durée de moins d’une minute. TikTok est devenu célèbre aux États-Unis suite à la fusion avec l’application américaine Musical.ly en 2018. La popularité de TikTok a explosé l’année dernière, notamment pendant la crise sanitaire COVID-19, avec un total de 800 millions d’utilisateurs actifs dans 141 pays, l’Inde étant le premier marché de l’application avec 120 millions d’utilisateurs. Si TikTok peut être considérée comme une simple nouvelle plateforme de divertissement, elle suscite les réactions des gouvernements. Les relations entre l’Inde et la Chine ont rarement été aussi tendues. Le point culminant a été atteint lors d’un affrontement militaire dans la chaîne himalayenne. L’Inde étant militairement inférieure à la Chine, cette dernière a décidé de riposter sur un terrain autre que le terrain militaire : le terrain des applications. Le gouvernement indien a interdit l’application ainsi que 58 autres applications chinoises en juin 2020, privant TikTok de son premier marché. TikTok, grâce à ses nombreux utilisateurs, est un moyen efficace de faire pression sur la Chine, en particulier pour les Etats qui ne peuvent pas les combattre par d’autres moyens, tels que le « hard power », comme l’Inde. Cela a permis à l’Inde de maintenir sa souveraineté sur son territoire. Dans un contexte de guerre commerciale américano-chinoise, Mike Pompeo, le secrétaire d’État américain, a déclaré cet été que l’administration Trump envisageait également d’interdire TikTok. Trump a récemment annoncé que pour être maintenu sur le sol américain, l’application TikTok devait être rachetée par Microsoft ou Oracle.
Les Big Tech sont les nouveaux outils des guerres commerciales entre pays. Dans l’exemple de TikTok, c’est un moyen de limiter l’expansion incontrôlable de la Chine. Mais l’Union Européenne, incarnée par Margrethe Vestager, se sert également de cette arme pour rappeler aux États-Unis sa puissance et la souveraineté des Etats qui la composent. Nous verrons ce dernier point plus en détail lorsque nous aborderons la régulation des Big Tech.
Moteur d’innovation
Les GAFAM dépensent 70 milliards de dollars (7,8 milliards de dollars pour Facebook, 22,6 milliards pour Amazon) chaque année en recherche et développement (R&D). L’innovation est le moteur de leur évolution.
Charles-Edouard Bouée explique que les GAFAM sont moteurs de la révolution digitale, vagues après vagues. La 1ère vague correspond à l’invention de l’ordinateur personnel par Apple et IBM. La 2ème vague est la sortie du téléphone mobile, puis la 3ème vague l’évolution vers le smartphone, largement exploité par les GAFAM. La 4ème vague serait celle de l’Intelligence Artificielle (IA). L’IA est nourrie par les données. Les GAFAM ont centré leur business model sur la récolte de données, en faisant une monnaie d’échange avec l’utilisateur. Grâce à leur considérable budget R&D et la collecte d’énormes volumes de données, les GAFAM sont les moteurs de cette 4ème vague qui modifiera encore davantage la société.
Un exemple est celui de la santé. Sous prétexte d’un progrès que rien ne peut empêcher, Google Health et Calico (Alphabet/Google), HealthKit, CareKit, ResearchKit (Apple) se servent de l’IA pour permettre, via un smartphone, de compter le nombre de pas, bientôt de prendre la température, d’analyser les fréquences vocales, de toux, l’analyse de la sudation etc. Ils dessinent une santé prédictive et personnalisée qui s’affranchit du parcours de soin public pour laisser place à un service, « lucratif et soumis aux logiques de marché » écrit Éric Sadin dans « L’intelligence artificielle ou l’enjeu du siècle ».
Les GAFAM tirent l’innovation vers le haut : les valeurs technologiques pèsent aujourd’hui 28% du Dow Jones, contre 17% il y a 5 ans. C’est donc un argument de puissance important pour les États-Unis.
Une des conséquences est que les moyens considérables investis en R&D de ces entreprises attirent les talents du monde entier. La France est un des pays à avoir laissé ses meilleurs développeurs partir travailler pour ces géants, tuant ainsi la concurrence dans l’œuf. Nous pouvons donner l’exemple de Yann Le Cun, inventeur de réseau de neurones, aujourd’hui directeur de l’Intelligence Artificielle de Facebook.
L’innovation comme lien entre les GAFAM et l’État a été récemment remis en question par Trump qui a brutalement freiné l’Office of Science and Technology Policy (OSTP), institut de veille technologique rattaché à la maison blanche.
Découplage du monde entre la Chine et les USA
De par les exemples précédents, il semble que les clés du monde de demain soient entre les griffes des États-Unis et de la Chine. Depuis 1993, les États-Unis se sont lancés dans les « Autoroutes de l’information » et ont mis internet et la technologie au cœur de leur stratégie de croissance. La Chine se sert de la technologie comme arme pour concurrencer et détrôner le modèle occidental. L’Europe a, elle, investi sur des industries traditionnelles (le diésel propre) alors que c’est en Europe que sont nés Linux et le Web, piliers d’internet.
Gaspard Koening explique dans « La fin de l’individu – voyage d’un philosophe au pays de l’IA » que l’IA va raccourcir les chaînes de valeur, imposant des productions locales. Beaucoup de pays se retrouvent donc nus, ayant délocalisé massivement en Chine. Branko Milanovic le décrit par la courbe de l’éléphant : depuis 1980, les revenus de la majorité de la population ont augmenté (le dos de l’éléphant) alors que ceux des classes moyennes ou supérieures des pays développés ont stagné (la trompe). L’éléphant deviendrait chameau avec sur chaque bosse la Chine et les États-Unis, le reste du monde se partageant entre colonisés numériques.
Si rien ne semble pouvoir freiner la croissance de la Chine, qu’en est-il de celle des États-Unis ? La Chine, 2ème puissance mondiale, 20% du PIB mondial avec 40% de croissance est un marché attractif, même pour les GAFAM. Pourtant beaucoup ont capitulé. Apple a cédé au gouvernement chinois et a retiré les applications VPN permettant de contourner la censure. Apple n’était pourtant pas connue pour ses compromis après l’affaire du terroriste de l’attaque de San Bernadino (Californie) : le gouvernement américain a demandé à Apple de déverrouiller l’iPhone du terroriste, qui a refusé. Amazon a demandé à ses clients d’arrêter de déployer les services VPN sur leurs serveurs. Google a quitté le marché chinois après avoir découvert que les comptes Gmail de dissidents ou défenseurs des droits de l’homme aient été hackés. Facebook a une stratégie plus ambigüe et développe un outil permettant de supprimer certains messages dans certaines zones géographiques. L’État est incontournable dans les affaires chinoises, il est donc impossible pour les GAFAM de ne pas se plier à ses règles.
La Chine serait-elle le seul État à résister aux GAFAM et à les empêcher de s’immiscer dans ses affaires ?
Les GAFAM menacent la souveraineté des États
Les GAFAM sont de plus en plus critiquées pour leur contrôle de l’économie mondiale et pour leurs pratiques, notamment fiscales, qui font fi des lois. Les GAFAM « en allant vite et en cassant tout » comme le dit Mark Zuckerberg, n’ont jamais considéré les institutions étatiques traditionnelles. Maintenant que la taille des GAFAM leur donne un pouvoir sans précédent et que leur ambition façonne la société de demain, les Etats sentent leur souveraineté menacée. La puissance d’un Etat a pour composante sa force légale et sa monnaie. Les GAFAM s’attaquent à ces deux pans de la souveraineté.
Des acteurs au-dessus des lois
Les GAFAM sont déterritorialisées et sont maintenant présentes dans le monde entier. Ces entreprises proposent des services gratuits. Elles s’enrichissent de la collecte, l’analyse et la revente des données de leurs utilisateurs. En effet, 95% des revenus de Facebook sont générés par la publicité. En définissant le profil de l’utilisateur, Facebook peut anticiper ses choix, ses goûts, ses centres d’intérêts et revendre ces données en permettant aux entreprises des liens publicitaires ciblés. Cette « gratuité » de leurs services leur a conféré une situation de quasi- monopole : elles ont pu librement racheter leurs concurrents sans être rappelées par la loi antitrust. Elles fixent également librement leurs prix aux entreprises utilisant leurs plateformes pour faire de la publicité. Les Big Tech ont été auditionnées au Congrès des USA, accusées d’abus de position dominante dans la recherche ou la publicité. La Commission Européenne a sanctionné Google d’une amende de 2,42 milliards d’euros pour avoir favorisé Google Shopping au détriment de ses concurrents, pour avoir étouffé la concurrence de son système Android et pour avoir empêché des sites tiers de s’approvisionner en annonces auprès de ses concurrents au moyen d’AdSense, son service publicitaire.
Les services étant dématérialisés, ils sont difficiles à localiser. Les GAFAM choisissent donc vers quel pays, à faible taux d’imposition, ils remontent leur chiffre d’affaires. Google, Apple ou encore Facebook ont choisi l’Irlande et son taux d’imposition avantageux de 12,5% (contre 31% en France, 25% d’ici 2022). L’Irlande va même plus loin et a par exemple permis à Apple de n’être soumis qu’à un taux d’imposition de 1 % en 2003 sur ses profits européens, qui tombe à 0,005 % en 2014. Ainsi, Facebook a payé 1,16 millions d’euros d’impôt en France en 2019, montant ridicule. L’Union Européenne a tenté de mettre fin à ce dumping fiscal. En 2016, la Commission Européenne condamne Apple à rembourser les 13 milliards d’impôts payés à l’Irlande. Elle considère que ces aides nuisent à la concurrence et sont donc illégales au sein de l’Union Européenne. Le Tribunal de l’Union européenne a ensuite annulé cette condamnation en juillet 2020, les profits ne pouvant être attribués au sol européen uniquement. Une autre tentative de mettre fin à l’optimisation fiscale des GAFAM est de taxer le chiffre d’affaires des GAFAM dans les pays destinataires de leurs profits et non de taxer les profits.
Mais comme nous l’avons déjà vu, les gouvernements sont dépassés par la révolution technologique en cours. L’audition de Mark Zuckerberg pour le procès Cambridge Analytica devant le congrès américain a mis en lumière l’incompétence du législateur américain sur ces sujets. Beaucoup de pays européens sont réticents à taxer ou réguler les GAFAM, car ils craignent des mesures de rétorsions (industrie automobile allemande). Il n’y a pas non plus de politique publique définie au niveau de l’ONU ni de régulation mondiale pour la cybersécurité ou l’IA. Gaspard Koening nous raconte dans son livre « La fin de l’individu – voyage d’un philosophe au pays de l’IA » que l’ONU a même dû faire appel à Amazon pour aider ses équipes sur le plan technique. Le législateur semble avoir abdiqué son rôle de régulateur et cherche davantage à coréguler ou à laisser les entreprises se réguler elle-même. Les GAFAM sont donc au-dessus des lois et des logiques de marché.
La construction d’une nouvelle forme de société
Les réseaux sociaux permettent à chacun de s’exprimer en « s’imaginant placé au centre du monde et pouvant rabattre les évènements à sa seule vision des choses » nous explique Eric Sadin dans son livre «L’intelligence artificielle ou l’enjeu du siècle – Anatomie d’un antihumanisme radical ». Or Google et Facebook sont les seuls décideurs de l’information qu’ils décident de censurer ou de promouvoir. Ils deviennent donc les principaux régulateurs de la liberté d’expression au mépris du 1er amendement américain ou de la loi française de 1881, nous explique Gaspard Koening dans son livre « La fin de l’individu – voyage d’un philosophe au pays de l’IA ». Si cela a abouti aux scandales liés au fake news dont nous avons déjà parlés, cela définit également un nouveau statut de vérité. Selon Eric Sadin, plusieurs statuts de vérité se sont succédés dans l’histoire: d’abord la vérité des monothéismes, puis celle des philosophes, d’abord Platon ensuite la vérité comme non-contraction d’Aristote, celle du cogito de Descartes et la vérité comme source de toutes les croyances inculquées de Nietzsche. Eric Sadin décrit le prochain statut de vérité comme une vérité fondée sur « l’evidence-based- system » soit la production d’équations et d’algorithmes, grâce à l’intelligence artificielle, qui nous dictent une réalité ou la réalisation de faits qui relèvent de l’évidence. C’est dans les mains des GAFAM que se construit ce nouveau statut de vérité. Par exemple, Facebook ambitionne de construire une communauté qui « se charge de prévenir le mal, de corriger le sensationnalisme, de publier des standards de bonne conduite et de fournir aux citoyens des instruments de gouvernance » écrit Gaspard Koening dans son livre « La fin de l’individu – voyage d’un philosophe au pays de l’IA ». Cela ne se rapproche-t-il pas de la souveraineté ?
Les GAFAM exploitent et creusent l’écart entre une politique fondée sur des votes pour renouveler des mandats et un citoyen qui croule sous les offres et recommandations toujours plus personnalisées, de produits sur mesure etc… Pourtant le numérique rend le référendum et le vote beaucoup plus facile. Le risque est un désintérêt des citoyens pour la politique, indifférence qui ouvre un terrain aux autocrates.
Les déclinaisons des services des GAFAM sont multiples et accompagnent notre quotidien. Les implications sur la société en découlent. Par exemple, Google, avec son application Waze, impacte l’urbanisme : l’application encourage les automobilistes à prendre des itinéraires alternatifs, afin de limiter les encombrements. Certains riverains voient un trafic sans précédent passer par leur village, modifiant la vie de leur communauté. Ils tracent alors de nouvelles routes ou simulent des accidents pour détourner les utilisateurs de leur village.
Facebook ambitionne de créer une communauté que rien, ni même l’éloignement géographique, ne limite. Facebook a racheté CTRL-Labs qui a développé un bracelet permettant d’interpréter les signaux cérébraux et développe un casque, Oculus Quest, rendant possible la téléportation. Mark Zuckerberg y voit une solution aux inégalités sociales : si les talents sont équitablement répartis sur Terre, les opportunités ne le sont pas et « les bits vont plus vite que les atomes », développe Nicholas Negroponte dans son livre « Being Digital ». Afin d’être à la mesure de ses ambitions, Facebook développe un drone solaire, Aquila, qui fournira un accès internet, même aux régions du monde les moins bien desservies. Les GAFAM n’adoptent pas l’échelle d’État ou la souveraineté nationale sur laquelle se base l’ONU. Grâce à l’IA, les GAFAM transcendent États et ONU. C’est d’ailleurs le paradoxe des GAFAM qui rêvent encore d’un monde sans frontière, alors que celui-ci se replie avec la montée des nationalismes.
Google dit travailler à comprendre les désirs profonds des utilisateurs : à faire remonter l’information que l’utilisateur cherche véritablement et pas celle qu’il aimerait voir. Google suggère ainsi des choix que nous n’aurions pas identifiés. Par exemple, si je tape dans Google « voiture à acheter », Google, connaissant mon budget grâce à mon historique de recherche ou aux informations échangées via mon compte Gmail, me proposera une Twingo ou une Jaguar. Appelé « nudge », ce procédé est une théorie comportementale, technique pour influencer le comportement des personnes sans les forcer. Le nudge est défini par Richard Thales & Cass Sunstein comme « Paternalisme libertaire » : libertaire car les gens doivent être libres de faire ce qu’ils veulent ; paternaliste car « il est légitime d’influencer […] le comportement des gens afin de les aider à vivre plus longtemps, mieux et en meilleure santé ». Ce paternalisme libertaire, historiquement mission des États, permet d’orienter l’individu vers le meilleur choix pour lui tout en nuisant le moins possible à la société. Google prend la place de l’État dans ce rôle de décider ce qui est bon pour l’utilisateur et pour sa communauté également.
Substitution aux États : l’exemple de Facebook et de sa cryptomonnaie
La souveraineté monétaire est un concept juridique et a été définie par deux juristes français, Jean Carbonnier et Dominique Carreau, comme étant l’apanage exclusif de l’État moderne. « C’est à lui et à lui seul qu’il appartient de choisir l’unité monétaire, le signe, qui va circuler sur son territoire ». Cette définition faite par deux illustres universitaires est pourtant aujourd’hui mise à mal par l’ambition des GAFAM. Alors qu’Amazon et Google s’intéressent régulièrement à la technologie de la blockchain pouvant permettre de créer sa propre monnaie, 18 juin 2019 c’est le géant Facebook qui a annoncé la création de sa propre monnaie : le Libra. Le chinois WeChat l’a fait avant lui et associe maintenant messagerie, vidéo et transaction mobile. Libra permettra d’ores et déjà de payer sur Uber, eBay, Spotify ou Booking et sera accessible même aux personnes ne possédant pas de compte bancaire (la moitié des adultes dans le monde, surtout dans les pays de développement et les femmes).
Une cryptomonnaie est une monnaie qui repose sur la technologie blockchain. Elle permet de transférer de l’argent instantanément, sans frais de transfert et de façon sécurisée grâce au cryptage. La blockchain permet d’effectuer une transaction au moyen d’une chaîne cryptée et décentralisée, sans besoin d’institution ou de tiers de confiance de façon transparente et infalsifiable. Afin de réaliser cette chaîne de transactions, la blockchain a besoin de beaucoup d’ordinateurs qui mettent à disposition leur réseau. Ainsi le système est inviolable : il faudrait hacker tous les ordinateurs en même temps pour modifier la transaction. La blockchain est d’ailleurs déjà utilisée par Amazon, Microsoft et Google.
La différence entre Libra et les cryptomonnaies déjà existantes est que Libra est associé à des leaders du commerce ou du paiement, comme Mastercard, Visa, PayPal, Uber, Booking, eBay, Vodafone ou encore Iliad. De plus Libra est adossé à une réserve de valeurs stables comme le dollar ou l’euro, ce qui permet à la cryptomonnaie de ne pas être trop volatile, contrairement au Bitcoin. A chaque fois qu’un utilisateur achète des libras, la somme équivalente est investie dans des actifs sûrs tels des dettes d’états en euros ou en dollars. C’est donc en quelque sorte une digitalisation des monnaies existantes. Libra prend donc tout son sens dans les pays où les citoyens se méfient des institutions, dans les pays émergents avec un système bancaire toujours vacillant ou dans le cadre des transferts d’argent issus des diasporas. Par exemple, au Venezuela, les citoyens tentent déjà de se débarrasser de leurs bolivars en les échangeant contre des dollars sur le marché noir. Le Libra serait une menace de plus à la reprise de contrôle de la souveraineté monétaire de la Banque Centrale du Venezuela.
Le fonctionnement de la cryptomonnaie de Facebook est celui d’une banque centrale, sans être adossée à un État. Mais alors que la Banque Centrale Européenne (BCE) ou la Réserve Fédérale (Fed) contrôlent leur monnaie par le biais des taux d’intérêts et rachètent des dettes publiques pour agir sur l’économie, le Libra échappe complètement à cette régulation, étant uniquement piloté par des algorithmes. Il existe déjà plus de 1000 cryptomonnaies. Les Banques Centrales s’y sont déjà intéressées et les ont jugées encore trop marginales pour affecter la stabilité financière. Ces monnaies parallèles à l’État ne sont pas nouvelles. Au XVIIIème siècle en Écosse, les monnaies privées cohabitaient avec la monnaie étatique. Ce phénomène est régulé lorsqu’en cas de crise, les épargnants se tournent vers la puissance étatique, garante des dépôts et leur permet ainsi de récupérer leurs économies. C’est dans objectif que les États-Unis ont créé la Fed en 1913.
Facebook propose une sorte de dollarisation de l’économie des pays émergents. Certes le dollar est l’actif le plus sûr de la planète et représente déjà 61,7% des réserves des banques centrales sous forme de bons du Trésor. Cependant en jouant le rôle de banques centrales, Facebook porte atteinte à la souveraineté des États, fondement de l’ONU, et risque d’impacter l’économie mondiale. « Cette monnaie globale signerait la fin des États-nations, déjà bien vacillants », nous avertit Gaspard Koenig.
Facebook, à travers sa monnaie, pourrait déprécier ou apprécier n’importe quelle monnaie uniquement à son bon vouloir. Alors que les politiques monétaires font l’objet d’un nombre de
normes importantes, de traités internationaux et d’une régulation globalisée, cette monnaie de GAFAM sera un vecteur incontrôlable. C’est d’ailleurs en ce sens que le Ministre de l’Économie française Bruno Le Maire a publié dans le Financial Times une tribune intitulée « Le Libra est une menace pour la souveraineté des États ». Il y écrit « Nous ne pouvons pas accepter qu’un des instruments les plus puissants de la souveraineté des États, la monnaie, dépende de décisions d’acteurs qui ne sont soumis à aucune règle de contrôle démocratique. » et conclut en arguant que « La souveraineté politique ne se partage pas avec des intérêts privés ». Ces mots et plus globalement cette tribune dénote du risque majeur que nos démocraties encourent si des GAFAM, comme Facebook, valorisée à plus de 500 milliards de dollars, souhaitent créer leur propre monnaie.
L’Union Européenne a un rôle à jouer
Face à cette bipolarisation du monde entre les États-Unis et la Chine, et l’hyperpuissance de leurs mastodontes numériques, l’Union Européenne a un rôle prépondérant à jouer. D’abord par son poids économique, elle participe largement aux échanges commerciaux et peut infléchir certaines orientations. Mais aussi et surtout parce que l’Union Européenne représente une terre fertile pour ces entreprises du numérique qui ont besoin d’y être implantées ainsi que de bénéficier des utilisateurs européens. Néanmoins, ce rôle qu’elle doit jouer la confronte à des risques et des dangers.
Les GAFAM menacent la démocratie et les droits de l’homme
Le rôle de l’Europe, bien que nécessaire pour un équilibre mondial est en réalité une nécessité absolue pour conserver la démocratie et les droits de l’Homme sur son territoire. Le scandale de Cambridge Analytica en est l’exemple. Alors que la data est un des enjeux cruciaux vis-à-vis des GAFAM, cette affaire a mis en exergue la possibilité pour certaines entreprises de les exploiter à des fins politiques. L’entreprise Cambridge Analytica qui avait pour slogan « Data drives all we do », comprenons les données déterminent tout ce que nous faisons, était spécialisée dans l’analyse de données à grande échelle avec un cocktail d’intelligence artificielle mélangeant la psychologie comportementale, la psychométrie et le traitement quantitatif de données. Le développement de cet outil a alors permis l’exploitation des données Facebook de près de 70 millions d’utilisateurs, totalement à leur insu et d’influencer leur choix politiques. A travers l’élection américaine de Donald Trump ou celle du Brexit, l’utilisation de ce type d’outils permise grâce aux GAFAM démontre que les données qu’ils concentrent menacent nos démocraties. Nos démocraties reposent essentiellement sur la souveraineté des peuples et sur des élections, reposant sur un vote souverain et éclairé des citoyens. Mais dès lors que ces entreprises réccupèrent un nombre incalculable de données, pouvant être utilisées à des fins politiques, il convient d’alerter sur l’équilibre de nos démocraties. De plus, le profilage pratiqué par Facebook enferme l’utilisateur dans des habitudes de consommation, des boucles d’action et de décision, portant atteinte à la liberté de pensée, droit fondamental défini par la Convention Européenne de Sauvegarde des Droits de l’Homme. Les assistants virtuels permettent par commande vocales d’effectuer certaines tâches qui assistent l’utilisateur dans leur quotidien. Apple avec Siri, Google avec Google Assistant et Google Now, Microsoft avec Cortana, Amazon avec Alexa, Alibaba Group avec AllGenie, tous peuvent fournir des résultats avec une simple commande vocale. Cependant pour alimenter ces assistants virtuels, il faut une quantité massive de données afin d’entrainer l’intelligence artificielle qui permet de reconnaitre et de traiter le langage. Ces assistants sont déclenchés par mot clé. Mais le seuil d’erreur est très bas, ce qui implique qu’ils peuvent être déclenchés par beaucoup d’autres mots qui ressemblent plus ou moins aux mots clés : ils peuvent donc potentiellement écouter sans que l’utilisateur ne le sache. C’est ce que l’on appelle l’écoute passive. De plus, comme beaucoup d’autres services, il faut se connecter grâce un compte utilisateur, qui est souvent le même que celui de Gmail, Facebook, Amazon, Apple. Les GAFAM peuvent donc croiser les données, qui plus est, des données personnelles et de vie privée. La Convention Européenne de Sauvegarde des Droits de l’Homme a défini comme un droit fondamental le respect de la vie privée et des données personnelles. Ces pratiques portent donc atteinte aux droits de l’Homme alors que les GAFAM centrent leur business model sur les utilisateurs et leur donnent l’illusion que tout est fait pour enrichir leur expérience, faciliter leur quotidien, accélérer leur prise de décision. Il y a fort à parier que l’Europe réagisse face à cette atteinte à ses droits fondamentaux et remette ainsi en question leur modèle économique.
La carte à jouer de l’Europe
Si l’Europe n’a pas orienté sa stratégie par le passé sur le numérique, elle a aujourd’hui, par sa tradition humaniste, une carte à jouer pour remettre de l’humain et de l’éthique au sein des GAFAM. En effet, depuis les années 70 et l’abandon du réseau Cyclades, véritable pilier d’internet, au profit du Minitel, la vente de Thomson Multimedia au coréen Daewoo alors que Thomson possédait des brevets sur la technologie MP3 et la vidéo en ligne maintenant utilisés dans tous les smartphones, et le transfert des usines Alcatel vers la Chine, la France a été un exemple d’une Europe qui avait choisi d’axer sa stratégie sur des industries traditionnelles plutôt que de parier sur l’arrivée de nouvelles technologies. L’Europe a longtemps investi dans projets institutionnels plutôt que dans des startups comme aux États-Unis. Ces projets, comme le Google européen, Quaero, lancé par Chirac, sont vite abandonnés. L’Europe cherche aujourd’hui à rétablir sa « souveraineté numérique » comme l’énonce Ursula Vonder Leyen. Un plan de relance est construit sur trois piliers : la maitrise des données industrielles (les données des entreprises européennes), la maitrise des microprocesseurs de haute performance, clé pour le bon fonctionnement des supercalculateurs et une connexion internet dans toute l’Europe, y compris les zones aujourd’hui blanches, grâce à une constellation satellitaire en orbite basse sécurisée par la technologie quantique. Le fer de lance de l’Europe est donc de réguler l’industrie « high tech » et ses géants, les GAFAM, jusqu’alors « too big to care » dans l’objectif de respecter les droits de l’homme et les valeurs démocratiques.
Nous avons vu précédemment que les GAFAM adoptaient certaines pratiques fiscales qui leur permettaient de payer des impôts négligeables. Certains pays de l’Union Européennes cherchent d’ores et déjà à empêcher ce dumping fiscal. Ainsi le ministre de l’économie français Bruno Le Maire soutient une taxe GAFAM qui s’adresse aux entreprises du numérique ayant un chiffre d’affaires supérieur à 750 millions d’euros et propose un impôt de 3% de leur chiffre d’affaires selon leur présence en France (nombre d’utilisateurs, contrats, …).
Les pays du G7 et du G20 ont chargé l’OCDE de construire une fiscalité internationale pour les entreprises du numérique. Les premières propositions vont dans le sens d’une imposition qui n’est pas basée sur le pays de résidence mais sur les pays d’utilisation.
La France et l’Union Européenne tirent le monde vers une industrie du numérique plus humaine. Le 15 juin 2020, le Canada, la France et 12 autres états (l’Allemagne, l’Australie, la République de Corée, les États-Unis d’Amérique, l’Italie, l’Inde, le Japon, le Mexique, la Nouvelle-Zélande, le Royaume-Uni, Singapour, la Slovénie) et l’Union Européenne ont signé le partenariat mondial pour l’Intelligence Artificielle. Son secrétariat est hébergé à l’OCDE à Paris et ses deux centres d’expertises à Montréal et à Paris. L’objectif de ce partenariat est de construire une intelligence artificielle éthique, respectant les droits de l’homme et les valeurs démocratiques.
Dans cette lutte pour conserver nos démocraties et les droits de l’Homme, l’Union Européenne a fait une avancée considérable : le RGPD (Règlement Général sur la protection des données). Il a imposé en 2016 à toutes les entreprises ayant des clients au sein de l’Union Européenne cette réglementation qui n’est égalé dans aucun autre pays et sert d’inspiration au monde entier en matière de régulation des données. Sa logique est de faire du contrôle de la data un droit fondamental. « Qui dit marché des data dit démocratie des data » dit Margrethe Vestager. Pour « ne pas se retrouver au milieu du duopole » comme le dit Cédric Villani, entre les États-Unis et la Chine, l’Europe pourrait fournir un cadre législatif, économique et culturel à l’industrie du numérique. L’Europe est récemment allée plus loin. La Cour de justice de l’Union Européenne a cette année mis un terme à l’accord Privacy Shield qui permettait le transfert de données entre l’Europe et les États-Unis depuis 2015. Cette décision a des répercussions sur plus de 5000 entreprises, dont les GAFAM, qui dépendent de ce transfert de données. L’Union Européenne a rompu cet accord jugeant que la gestion des données par les États-Unis n’était pas conforme à celles déployée par le RGPD et ne permettait pas une protection suffisante de celles-ci. L’intérêt premier de l’Union Européenne est donc de protéger les données des citoyens européens notamment contre les services de renseignements américains. La Data Protection Commission irlandaise a ainsi exigé de Facebook en Septembre dernier d’arrêter de transférer les données des utilisateurs européens vers les serveurs américains. Se priver du marché de l’Europe n’est pas envisageable pour nombre des entreprises concernées par la rupture de cet accord. Comme Facebook, elles ont alors deux solutions : soit elles arrêtent de traiter les données provenant de l’Europe et renoncent donc à leurs services sur ce territoire, ou soit elles devront trouver des moyens et des garanties pour s’assurer que les données de leurs utilisateurs européens sont protégées. D’ici fin 2020, l’Unions Européenne veut mettre en place une législation sur les services numériques qui pourra contraindre les GAFAM à se séparer de certaines activités sur le marché intérieur en cas de non-adaptation. Ce règlement est la preuve que l’Europe a un rôle prépondérant à jouer dans cette guerre économique, où les GAFAM, s’installent comme des puissances à la fois économique et politique.
L’Europe prend donc le rôle de leader dans la définition d’un monde numérique en respect de la souveraineté des états et des droits de l’Homme et cherche ainsi à rétablir un équilibre des puissances et un contexte favorable à l’innovation éthique.
CONCLUSION
Nous avons démontré que les GAFAM, et aujourd’hui les BATX, ont permis aux États-Unis et à la Chine de renforcer leur puissance sur la scène mondiale. Définissant une nouvelle industrie, ces géants du numériques ont bénéficié du retard de l’adaptation du cadre législatif pour porter une croissance fulgurante. Un réveil des états et des utilisateurs met en lumière leurs pratiques anti-concurrentielles, anti-démocratiques et bafouant la souveraineté des états et les droits de l’homme. Grâce à leurs chiffres d’affaires dépassant le PIB de beaucoup d’états et leur communauté dépassant les frontières, les GAFAM sont en position de force pour imposer un nouvel ordre mondial et une nouvelle conception des droits, de la politique et de la citoyenneté. L’Europe veut jouer le rôle de garante de la démocratie et des droits de l’homme et tente de définir un nouveau cadre à cette industrie dématérialisée qui vend à ses utilisateurs une séduisante capacité à les orienter et les influencer mieux que quiconque.
REFERENCES
L’intelligence artificielle ou l’enjeu du siècle – Anatomie d’un antihumanisme radical – Eric Sadin La fin de l’individu – voyage d’un philosophe au pays de l’IA – Gaspard Koening Le Capitalisme de surveillance – Shoshana Zuboff Being Digital – Nicholas Negroponte
Adieu les Gafa, place aux «Big Tech» – Le Figaro – 7 septembre 2020 Comment la France s’est vendue aux GAFAM – Tariq Krim – Le Point – 5 janvier 2019
Charles-Édouard Bouée : « Avec l’intelligence artificielle, nous entrons dans la quatrième vague de la révolution digitale » – Le Point – 24 décembre 2018
Les GAFA se heurtent à la grande muraille de l’Etat chinois – Le Monde – 7 août 2017
Les confidences de Mark Zuckerberg – Le Point – 25 septembre 2019
L’Europe contre Google, Acte II – Le Point – 11 septembre 2017
L’inventeur du Web exhorte à réguler l’intelligence artificielle – Le Monde – 27 avril 2018
Libra : pour Facebook, un nouveau moyen de mieux connaître ses «amis» – Libération – 17 juin 2019
Libra : tout ce qu’il faut savoir sur la cryptomonnaie de Facebook – Le Monde – 18 juin 2019
Avec le libra, Facebook veut bousculer les monnaies – Le Monde – 17 juin 2019
« Il est opportun d’ouvrir un débat approfondi sur la “blockchain” » – Le Monde – 3 mai 2019
L’inventeur du Web exhorte à réguler l’intelligence artificielle – Le Monde – 27 avril 2018
Breton : « L’UE doit organiser l’univers numérique pour les 20 prochaines années » – Le Point – 26 juin 2020
L’accord sur le transfert de données personnelles entre l’UE et les Etats-Unis annulé par la justice européenne – Le Monde – 16 juillet 2020
Apple : la justice annule les 13 milliards d’arriérés d’impôts exigés par la Commission européenne – Les Echos – 15 juillet 2020
Tribune du Ministre de l’Économie et des Finances Bruno Le Maire – Financial Times – 17 octobre 2019
Geneviève Fieux-Castagnet, Déontologue, et Gérald Santucci, Penseur et Écrivain
26 septembre 2019
Il ne fait aucun doute que l’intelligence artificielle connaît depuis plus d’une décennie des avancées spectaculaires qui vont encore s’amplifier. La santé, l’automatisation, la mobilité et le transport, les analyses prédictives, la justice et la police, la sécurité dans les villes, l’art, les jeux, et bien d’autres domaines encore, sont peu à peu gagnés par l’attractivité de cette discipline et de ses technologies qui promettent plus de performance, moins de coûts.
Chacun sent bien que le recours à l’IA pose de nombreuses questions éthiques que certains États et des entreprises de plus en plus nombreuses sont en train de prendre en considération. C’est pourquoi de nombreux acteurs publics et privés conçoivent des lignes directrices et des chartes éthiques pour le déploiement de l’intelligence artificielle. La tâche n’est pas aisée puisqu’il faut arbitrer entre innovation et protection, nouveaux modèles économiques et réglementations. Actuellement, il apparaît que la Commission européenne est bien placée dans la recherche de cadres appropriés pour évaluer les impacts éthiques de l’IA. Après le rayonnement du RGPD (règlement général sur la protection des données), elle peut s’employer à légiférer sur les questions éthiques tout en poursuivant son dialogue avec les autres parties du monde afin que sa démarche devienne un jour universelle. Dans notre essai rédigé en anglais, Gérald Santucci et moi-même proposons un cadre général des grandes problématiques de l’IA et évoquons les principaux outils susceptibles de permettre de développer une IA éthique universelle, notamment par le recours à des analyses d’impact éthique.