Publication No 1 Collection Jadex Conflits Armés: La Prochaine Génération

Publication No 1 Collection Jadex Conflits Armés: La Prochaine Génération
Publication No 1
Collection Jadex
Conflits Armés: La
Prochaine Génération
Technologies et
Tendances Mondiales
en Émergence
Regan Reshke
Novembre 2007
Armée Canadienne
Direction Concepts et Schémas
de la Force Terrestre
Défense National
nationale Defence
PUBLICATION NO 1 DE LA COLLECTION JADEX
CONFLITS ARMÉS : LA PROCHAINE GÉNÉRATION
TECHNOLOGIES ET TENDANCES MONDIALES EN
ÉMERGENCE
Regan Reshke
Novembre 2007
Publication no 1 de la collection JADEX
1
2
Publication no 1 de la collection JADEX
CONFLITS ARMÉS : LA PROCHAINE GÉNÉRATION
TECHNOLOGIES ET TENDANCES MONDIALES EN
ÉMERGENCE
Regan Reshke
Publication no 1 de la collection JADEX
3
© 2007 Ministère de la Défense nationale
Le présent ouvrage est protégé par droit d’auteur.
IDDN—B-GL-900-J01/JP-000
ISSN—1915-2817
Collection des Publications hors série de l’Armée canadienne
Rédacteur des publications : Major Andrew B. Godefroy CD Ph. D.
Publications hors série produites pour l’Armée canadienne par la Direction Concepts et schémas de la Force terrestre. Ces publications sont des véhicules pour
lancer, encourager et diriger la discussion et le débat professionnels sur des concepts,
la doctrine, les capacités, les opérations contemporaines, l’histoire, ainsi que d’autres
sujets d’intérêt pour l’Armée canadienne et les Forces canadiennes. De par leur nature,
les publications hors série ne se veulent pas des études définitives, mais plutôt une
partie du processus itératif de créer un ensemble de connaissances pour appuyer le
développement de capacités.
Nous vous invitons à faire parvenir vos commentaires sur la présente publication
hors série et les autres publications hors série à l’adresse suivante :
Rédacteur de la collection—Publications hors série de l’Armée canadienne
À l’intention de la Direction—Concepts et schémas de la Force terrestre
Édifice Sir Julian Byng (A-31)
4, promenade Princess Mary
Base des Forces canadiennes Kingston
Kingston (Ontario), Canada K7K 7B4
4
Publication no 1 de la collection JADEX
« JADEX »
Le Général Jacques Alfred Dextraze
Ces articles occasionnels paraissent dans une collection appelée JADEX en
l’honneur du légendaire Général Jacques Alfred Dextraze CC, CMM, CBE, DSO, CD,
LL.D. de l’Armée canadienne, que ses soldats appelaient affectueusement ‘Mad Jimmy’
et plus tard, simplement ‘JADEX’. Né le 15 août 1919, Jacques Dextraze s’enrôle
comme simple soldat dans l’Armée canadienne en 1940. Trente-sept ans plus tard, à la
fin de sa carrière militaire, il détiendra le grade de général et occupera le poste de Chef
de l’état-major de la Défense.
Jacques Dextraze a fait ses études au Collège Saint-Joseph de Berthierville (Qc)
avant de devenir vendeur pour la Dominion Rubber Company. Durant la Seconde
Guerre mondiale, plus précisément en juillet 1940, juste après la chute de la France, il
quitte son emploi civil et s’enrôle comme simple soldat dans les Fusiliers Mont-Royal
(Fus MR). Grâce aux qualités de leadership qu’il manifeste durant l’entraînement, il est
promu sergent par intérim, mais sa première demande de commission d’officier, au
début de 1941, est refusée par le régiment. Malgré cela, il continue d’afficher un
leadership naturel et de démontrer une grande compétence, particulièrement dans la
formation des autres soldats. Il reçoit éventuellement sa commission d’officier au début
de 1942 et se porte volontaire pour le service outre-mer dès la fin de sa formation
d’officier.
Le Lieutenant Dextraze arrive en Angleterre en août 1942, juste après le raid de
Dieppe. Son unité ayant été décimée lors de cette attaque, c’est à lui et à d’autres
nouveaux jeunes officiers subalternes qu’incombera la tâche de la reconstruire et de la
préparer à retourner au combat. Débrouillard et dévoué, le jeune Dextraze se consacre
corps et âme à cette tâche, montrant un grand leadership de tous les instants.
Lorsqu’arrive le mois de juin 1944, Dextraze et les Fus MR sont prêts au combat.
Les Fus MR débarquent en France la première semaine de juillet au sein de la 6e
Brigade d’infanterie canadienne, 2e Division d’infanterie du Canada. Ils sont
immédiatement lancés dans l’action alors que la 1re Armée du Canada reçoit l’ordre
d’attaquer et de détruire toutes les forces allemandes résistant encore en Normandie, et
de prendre certaines positions en vue du combat d’exploitation qui va suivre.
Le 1er août 1944, le Major Dextraze commande la compagnie D lors de l’attaque
exécutée pour prendre l’église de Saint-Martin de Fontenay. Cette église, utilisée
Publication no 1 de la collection JADEX
5
comme poste d’observation par l’ennemi, contrôlait tout le secteur et menaçait les
opérations subséquentes de la 6e Brigade parce qu’elle dominait une colline qu’il fallait
conquérir pour prendre le contrôle du front. À cette occasion, la cie D subit de lourdes
pertes dues au feu des mitrailleuses et mortiers ennemis qui balayent les rues dégagées
du village durant l’attaque. Réalisant qu’il est vital de maintenir l’élan de l’attaque, le
Major Dextraze se précipite vers l’avant et, sans égard pour sa propre sécurité, mène
personnellement l’assaut dans la cour de l’église, parmi les grenades, les tirs de fusils
et les rafales de mitrailleuses de l’ennemi. Dans le violent combat corps à corps qui suit,
le Major Dextraze « donne l’exemple », renverse l’ennemi et prend la position. La
contre-attaque ennemie est immédiate, mais le Major Dextraze réorganise rapidement
le reste de sa compagnie et repousse toutes les tentatives ennemies de reprendre la
position. En reconnaissance du leadership personnel extraordinaire et de la bravoure
dont il a fait preuve au combat, l’Armée lui décerne l’Ordre du service distingué
(D.S.O.)1. C’est à cette occasion que ses hommes lui donne le surnom de « Mad
Jimmy ».
En décembre 1944, le Major Dextraze est promu au grade de lieutenant-colonel et
nommé commandant de son régiment. Il commandera les Fus MR pendant tout le reste
de la guerre et recevra une deuxième D.S.O. pour le leadership manifesté lors de la
libération de la ville de Groningen (Hollande), le 15 avril 1945. La 6e Brigade d’infanterie
canadienne avait reçu la mission d’expulser l’ennemi du centre de Groningen et les Fus
MR avaient reçu l’ordre de dégager la moitié est de la ville. Un combat maison par
maison allait être nécessaire, car l’ennemi était déterminé à tenir la position à tout prix.
Dans les premières phases de la bataille, les troupes de tête sont stoppées par des
tirs de mitrailleuses lourdes venant de positions judicieusement placées. Le Lcol
Dextraze s’aperçoit rapidement que s’il ne fait rien pour changer la situation, tout le plan
risque d’échouer. Il se rend alors immédiatement à la compagnie de tête pour élaborer
un plan en vue de dégager les positions de mitrailleuses et dirigera personnellement leur
destruction finale. Lorsque le commandant de la compagnie sur le flanc droit se fait tuer,
Dextraze se précipite à travers les tirs ennemis pour aller prendre la relève, réorganiser
la compagnie et la conduire personnellement jusqu’à son objectif. Malgré l’intensité du
tir ennemi, il expulsera les Allemands de leurs positions défensives et obligera la
garnison à se rendre. Tout au long de cette action, le Lieutenant-colonel Dextraze a
mené son bataillon à l’attaque et lorsque celui-ci était ralenti par l’ennemi, il était là pour
aider et encourager ses hommes à atteindre leur objectif. Sa débrouillardise, son
courage indomptable et son dévouement à sa tâche ont non seulement été une grande
source d’inspiration pour ses hommes, mais ont joué un rôle déterminant dans la
reddition finale de la garnison ennemie de Groningen et dans la réussite du plan
divisionnaire .
Le Lieutenant-colonel Dextraze commande son unité jusqu’à la reddition finale de
l’Allemagne en 1945, puis se porte volontaire pour commander un bataillon de la division
d’infanterie du Canada qui est en train d’être constituée pour aller servir dans le
Pacifique. Le Japon se rend en août, avant que les unités canadiennes puissent se
déployer et le Lcol Dextraze décide alors de prendre sa ‘retraite’ et de s’inscrire sur la
liste générale des officiers de réserve, avant de retourner à la vie civile. Sa vie horsuniforme ne sera cependant pas de longue durée, car dès 1950 il reprend le service actif
à titre de commandant du 2e Bataillon, Royal 22e Régiment en Corée. Dextraze
démontrera encore une fois sa ténacité et son leadership dans la défense de la colline
355; alors que son unité est encerclée par l’ennemi, il repousse toutes les attaques et
refuse d’abandonner sa position. En 1952, le Lcol Dextraze est fait officier de l’Ordre de
l’Empire britannique (OBE) en reconnaissance de son service.
6
Publication no 1 de la collection JADEX
De retour de Corée, Dextraze est brièvement affecté au Collège d’état-major de
l’Armée, puis au Quartier-général de la région de l’Est de la Force terrestre. En 1954, il
est promu au grade de colonel et nommé chef d’état-major du commandement du
Québec à Montréal. Par la suite, il servira dans les écoles de combat de l’infanterie à
Borden et à Valcartier, puis reviendra commander la région du Québec à titre de
brigadier-général en 1962. Il ne restera cependant pas longtemps à ce poste, car dès
l’année suivante il accepte le commandement du contingent canadien au Congo et le
poste de chef d’état-major de l’Opération des Nations-Unies au Congo. Au début de
1964, il organise, coordonne et dirige une série de missions portant le nom de code
‘JADEX’ pour sortir des non-combattants des zones de conflit dans le théâtre; ces
actions lui vaudront une promotion au rang de commandeur de l’Ordre de l’Empire
britannique, avec feuille de chêne pour bravoure devant l’ennemi .
À son retour au Canada, Dextraze est nommé commandant de la 2e Brigade
d’infanterie canadienne; c’est à partir de ce moment que son attache de signature
traditionnelle ‘JADEX’, qui apparaît sur toute sa correspondance officielle, devient son
surnom. En 1966, il est à nouveau promu au grade de major-général et nommé au poste
de commandant-adjoint du commandement de la Force mobile. En 1970, Dextraze est
promu au grade de lieutenant-général et nommé chef du personnel au Quartier-général
de la Défense nationale. Finalement, en 1972, le Lieutenant-général Jacques Alfred
Dextraze est nommé Chef de l’état-major de la Défense avec le grade de général et fait
commandeur de l’Ordre du mérite militaire. Il occupera ce poste jusqu’à sa retraite du
service en 1977, près de quatre décennies après son enrôlement comme simple soldat
dans l’infanterie. En reconnaissance de son service exceptionnel au sein des forces
armées et pour son pays, il est fait membre de l’Ordre du Canada en 1978. Lorsque
Jacques Alfred Dextraze s’est éteint paisiblement le 9 mai 1993, la nation a tristement
salué le départ de l’un des plus exceptionnels et légendaires soldats de son histoire.
Note
1. Recommandation d’attribution immédiate de la D.S.O. le 5 septembre 1944; recommandation approuvée par le
Lieutenant-général H.D.G. Crerar, officier général commandant en chef par intérim de la 1re Armée canadienne, le
4 novembre 1944.
Publication no 1 de la collection JADEX
7
À PROPOS DE L’AUTEUR
M. Regan Reshke se joint aux Forces canadiennes en juin 1980 et, en 1985 obtient
du Collège militaire royal (CMR) à Kingston un baccalauréat engénie civil.
Après avoir terminé sa formation en génie militaire à Chilliwack, il est affecté à la
section de Génie construction à la BFC Edmonton, où il servit comme officier des
opérations, officier des services publics, officier des contrats et officier du génie.
Entretemps, il présente sa demande d’agrément à l’Association of Professional
Engineers, Geologists and Geophysicists of Alberta (APEGGA), qui lui octroie le titre
d’ingénieur professionnel en 1988.
Sélectionné en 1989 pour suivre l’instruction de qualification de spécialiste à
l’Université du Nouveau-Brunswick, il obtient un diplôme en cartographie et géodésie en
1991. Une fois ses études terminées, il est affecté au Service de cartographie, à Ottawa,
où il occupe les postes d’officier des opérations et de commandant (cmdt) de l’escadron
de cartographie, puis de cmdt du nouvel escadron de production numérique. En 1993,
M. Reshke devient membre du personnel de gestion de projet du tout nouveau Système
de commandement de la Force terrestre et occupe le poste d’ingénieur — Système
d’information géographique pendant quatre ans.
En 1997, M. Reshke est sélectionné pour entreprendre des études supérieures
subventionnées en génie civil, au CMR. Il obtient en 1999 une maîtrise en génie avec
spécialisation en ingénierie structurale. À la fin de ses études, il devient chargé de cours
au département de génie civil, au CMR. À cette époque, il présente sa demande
d’agrément à l’Association des arpenteurs-géomètres de l’Ontario et il reçoit l’agrément
professionnel en 2001. M. Reshke occupe le poste de J2 Environnement au Quartier
général interarmées des FC, à Kingston, de 2001 jusqu’à sa retraite des FC en 2002.
En mars 2002, M. Reshke se joint à l’agence de Recherche et développement pour
la défense Canada, où il occupe actuellement le poste de Directeur — Sciences et
technologie (Terre) 7 et agit comme conseiller scientifique auprès du Chef d’état-major
Stratégie (anciennement DGDCFT), à Kingston. Servant dans une capacité de liaison
entre les développeurs de capacités de l’état-major de l’Armée de terre et RDDC,
M. Reshke fait des recherches et donne des conseils en matière des tendances en
sciences et technologie et de leurs implications pour le développement des capacités de
l’Armée.
Remerciements
L’auteur aimerait remercier M. Peter Gizewski, analyste de données stratégiques à
la Direction — Concepts et schémas de la Force terrestre, de son aide et de ses
commentaires sur les versions antérieures de la présente publication.
Déni de responsabilité
Les opinions exprimées ici sont celles de l’auteur et ne sont pas forcément celles
de l’Armée canadienne, du ministère de la Défense nationale ou du gouvernement du
Canada.
8
Publication no 1 de la collection JADEX
DIRECTION — CONCEPTS ET SCHÉMAS DE LA FORCE
TERRESTRE
La Direction — Concepts et schémas de la Force terrestre (DCSFT) a évolué de la
Direction — Concepts stratégiques (Opérations terrestres) (1997-2006) dans le cadre de
la transformation permanente de l’armée de terre et de la maturation du développement
des capacités de la force terrestre. À titre d’organisme de recherche principal de l’Armée
canadienne, la Direction a pour mission de conseiller le chef d’état-major de l’Armée de
terre en matière de l’environnement de sécurité de l’avenir (ESA), des capacités qui
seront nécessaires pour évoluer dans cet environnement et des concepts et
technologies de remplacement pour atteindre ces capacités. La DCSFT constitue un
point focal de l’Armée pour identifier, examiner et évaluer les facteurs et
développements qui auront une incidence sur l’Armée de terre de demain (ATdD) et sur
l’Armée de l’avenir (AdA) ou, en termes plus concrets, de 2016 et au-delà. Pour exécuter
son mandat, la Direction examine une vaste gamme de questions comprenant les
environnements mondial et national, les technologies en émergence et les facteurs
humains, ainsi que les développements au sein des forces alliées et étrangères.
Publication no 1 de la collection JADEX
9
RÉSUMÉ
Tout au long de l’histoire, la conduite de la guerre a été profondément influencée par
les sciences et la technologie. Le radar, la radio, les ordinateurs, les lasers, les satellites
GPS, les fusils, l’artillerie, les chars — tous ces produits de la technologie militaire du
20e siècle et bien d’autres encore peuvent retracer leur origine au moins en partie à la
recherche scientifique, technologique et technique. Les investissements dans les
sciences et la technologie ont bien servi l’Armée et continueront d’être le pilier essentiel
du maintien des capacités supérieures de la Force terrestre à mener la guerre. Les
recherches scientifiques et technologiques seront encore plus influentes au 21e siècle
qu’elles ne l’ont été tout au long du 20e siècle.
Bien qu’il soit impossible de prédire l’avenir, l’étude des principaux facteurs qui
contribuent au changement permet quand même d’identifier certaines des possibilités
générales qui s’annoncent. Les possibilités négatives constituent un avertissement,
alors que les possibilités positives peuvent révéler des occasions qui devraient être
explorées activement, permettant ainsi de modeler l’avenir. Bien que les opinions
divergent quant aux principaux moteurs des changements futurs, il y a parmi ceux qui
étudient l’avenir un consensus généralisé selon lequel la technologie est le principal
instrument d’habilitation du changement social. Par conséquent, il est impératif de
surveiller et de comprendre les tendances actuelles et en émergence en sciences et
technologie, compte tenu de leur statut reconnu de principaux moteurs du changement.
Paradoxalement, malgré l’analogie générale entre l’étude de l’avenir et la
planification militaire, les professionnels militaires consacrent très peu d’effort à l’étude
de l’avenir. En tant que premier pas vers l’amélioration de cette situation, et compte tenu
de la diversité des changements mondiaux au cours du 21e siècle, les moteurs, les
tendances et les technologies abordés ici ont une vaste portée, visant tant les systèmes
militaires que les systèmes commerciaux et leur incidence potentielle sur la société et
les forces armées. Le présent document démontrera que le manque à investir dans les
activités de développement en vue de parer aux menaces potentielles habilitées par
l’assaut des technologies avancées disponibles dans le commerce constitue un grave
risque pour les opérations terrestres de demain.
10
Publication no 1 de la collection JADEX
CONFLITS ARMÉS : LA PROCHAINE GÉNÉRATION
TECHNOLOGIES ET TENDANCES MONDIALES EN
ÉMERGENCE
Par Regan Reshke
Les sciences et la technologie peuvent soutenir efficacement la transformation
des Forces canadiennes en contribuant directement à l’amélioration des
capacités militaires du Canada
Général R.J. Hillier, chef d’état-major de la Défense, et Ward P.D. Elcock, sousministre de la Défense, dans leur avant-propos de la Stratégie S & T pour la
Défense, publiée en décembre 2006.
Introduction
Tout au long de l’histoire, la conduite de la guerre a été profondément influencée par
les sciences et la technologie. Dans son analyse de l’effet de l’industrialisation et de la
technologie sur la conduite de la guerre, Patrick Murphy1 révèle qu’après 1850, l’Europe
a connu une poussée du développement d’armes. Les sciences, la technologie et
l’ingénierie ont contribué à l’amélioration de la plupart des armes, y compris les armes
légères (fusil se chargeant par la culasse) et l’artillerie (rayage), qui ont vu d’énormes
améliorations à l’égard de la précision et de la létalité. Ces développements ont changé
la façon dont les guerres ont été menées par la suite, à mesure que la dispersion des
troupes augmentait et que la technologie de communication (le télégraphe) a été
introduite pour faciliter le commandement et le contrôle des forces dispersées.
Cependant, à cause du coût élevé de ces derniers développements des capacités,
seules les nations riches pouvaient se les permettre, ce qui a donné lieu à des écarts
technologiques entre riches et pauvres. Malgré le siècle et demi qui s’est écoulé depuis
que l’industrialisation a commencé à transformer la conduite de la guerre, on reconnaît
aujourd’hui exactement les mêmes tendances : augmentation de la précision, de la
portée, de la puissance de feu, et de la létalité des armes, augmentation de la dispersion
des troupes, commandement et contrôle habilités par la technologie de l’information et
écarts technologiques entre les pays.
Les sciences et la technologie sont également les principaux moteurs des
économies des pays développés et, dans une certaine mesure, des pays en voie de
développement. En effet, cinquante-huit pour cent des dirigeants sondés dans le cadre
du CEO Briefing2 de l’Economist Intelligence Unit de 2005 mentionnaient les progrès de
la technologie comme le moteur le plus critique du changement sur le marché mondial.
De plus, les sciences et la technologie définissent tous les autres moteurs du
changement (allant de la démographie à la mondialisation3), de sorte que leur incidence
est centrale, bien qu’elle soit difficile à prévoir à cause de la vaste gamme d’innovations
qui caractérise le début du 21e siècle. Bien que certaines technologies soient prévisibles,
notamment celles qui constituent des améliorations et de nouvelles applications
d’anciennes technologies, il y a des changements si rapides dans des domaines
fondamentalement nouveaux qu’il est difficile de prévoir leurs conséquences.
La science, comme la définit le Petit Robert, est tout « Ensemble de connaissances,
d’études d’une valeur universelle, caractérisées par un objet et une méthode
déterminés, et fondées sur des relations objectives vérifiables »4. En règle générale, une
science comprend l’acquisition de connaissances portant sur des vérités générales ou
l’application de lois fondamentales. Les connaissances scientifiques sont un instrument
d’habilitation fondamental pour le développement de technologies nouvelles ou
Publication no 1 de la collection JADEX
11
améliorées. Par conséquent, les innovations majeures de la technologie future, celles
qui définiront la société, exigeront une fondation de recherche de base solide. Donc,
l’innovation est la clé de l’avenir, tandis que la recherche de base est la clé de
l’innovation future.5
La technologie est l’application des connaissances scientifiques aux buts pratiques
de la vie humaine ou, en d’autres termes, au changement et à la manipulation de
l’environnement humain.6 Par conséquent, la technologie comprend des machines et de
l’équipement basés sur des connaissances scientifiques. Cependant, les outils et les
machines n’ont pas besoin d’être matériels. La technologie virtuelle, comme les logiciels,
est également comprise dans cette définition de la technologie. La technologie militaire
comprend la gamme d’armes, d’équipements, de structures et de véhicules utilisés
notamment aux fins du combat. Elle comprend la connaissance nécessaire pour réaliser
cette technologie, pour utiliser les produits technologiques au combat et pour réparer et
réapprovisionner ces produits.7
Bien que la définition générale de la technologie du paragraphe précédent
s’applique à tout article artificiel, allant des bottes aux armes nucléaires, il y a une
tendance apparente parmi les professionnels militaires de considérer seuls des
développements nouveaux et en évolution comme de la technologie. L’équipement, les
outils et les techniques au point qui sont devenus une partie intégrante d’une doctrine
bien développée sont moins aptes à être considérés comme de la technologie, mais
plutôt comme une partie du patrimoine culturel — ce qui les rend supérieurs à la
technologie. Par conséquent, le terme « technologie » commence à désigner, à tort, par
exemple les derniers développements des technologies de l’information et des
communications (TIC) — également appelée « haute technologie ». Toutefois, cette
interprétation risque de mener à une tendance à éviter les solutions de technologie en
évolution en faveur de technologies au point telles que celles des chars ou de l’artillerie.
Bien que cette approche ait un certain mérite, elle ne doit pas demeurer la réaction par
défaut aux nouveaux développements, notamment lorsqu’ils atteignent la maturité à un
rythme croissant.
Tout au long de l’histoire, la technologie a été un catalyseur important du
changement. Bien que les opinions divergent quant aux principaux moteurs du
changement, il y a parmi ceux qui étudient l’avenir un consensus généralisé selon lequel
la technologie est le principal instrument d’habilitation du changement social. Bien que
l’importance des sciences et de la technologie soit claire, leurs valeur et fonction dans
la société demeurent discutables car il est difficile de prévoir les effets de ces
changements, et il n’est pas clair si c’est la technologie qui stimule le changement de la
société ou l’inverse. Il semble de plus en plus que ce soit ni l’un ni l’autre, mais qu’il y ait
plutôt un rapport symbiotique : la technologie et la société s’influencent mutuellement
par étapes incrémentales, tantôt c’est l’une qui mène, tantôt l’autre, mais elles finissent
par progresser toutes les deux.
Il importe de surveiller et de comprendre les tendances, car cela aide les
organisations à réfléchir sur l’adaptation au changement inévitable qui se produira à
l’avenir et qui est la somme des résultats des tendances, des événements fortuits et de
choix humains. En outre, il est impératif que les tendances ayant trait aux sciences et à
la technologie soient analysées en raison de leur statut reconnu de principaux moteurs.
Bien qu’il soit impossible de prédire l’avenir, l’étude des principaux facteurs qui
contribuent au changement permet d’identifier des possibilités générales qui
s’annoncent. Les possibilités négatives constituent un avertissement, alors que les
possibilités positives peuvent révéler des occasions qui devraient être explorées
activement, permettant ainsi de modeler l’avenir.
12
Publication no 1 de la collection JADEX
Dans son texte qui fait date, « Futuring: The Exploration of the Future »8, Edward
Cornish compare l’étude de l’avenir aux grandes expéditions des fameux explorateurs
européens. Les professionnels militaires s’identifieront facilement aux préparations
méticuleuses des grands explorateurs, dont le succès dépendait d’avoir le bon
équipement, les bonnes fournitures, les bons équipiers et la formation appropriée au
moment opportun.9 De plus, Cornish identifie sept leçons de ces grandes expéditions qui
sont applicables à la futurologie,10 et ces leçons sont également connues des
planificateurs militaires : préparez-vous à ce qui vous attend à l’avenir; anticipez les
besoins futurs; utilisez au besoin de l’information médiocre; attendez-vous à l’imprévu;
pensez long terme (stratégie) ainsi que court terme (tactique); rêvez de façon productive
(créative, novatrice); et apprenez de vos prédécesseurs. Paradoxalement, malgré
l’analogie générale entre l’étude de l’avenir et la planification militaire, les professionnels
militaires consacrent très peu d’effort à l’étude de l’avenir. En tant que premier pas vers
l’amélioration de cette situation, et compte tenu de la diversité des changements
mondiaux au cours du 21e siècle, les moteurs, les tendances et les technologies abordés
ici ont une vaste portée, visant tant les systèmes militaires que les systèmes
commerciaux et leur incidence potentielle sur la société et les forces armées.
Méga-tendances
Afin de comprendre la complexité des changements rapides auxquels nous faisons
face, Cornish11 propose, pour faciliter les choses, un ensemble de méga-tendances ou
de super-tendances, qui définissent l’avenir. Il reconnaît le progrès technologique
comme le principal moteur de la rapide évolution culturelle.12 Il avance, toutefois, que le
progrès technologique est plus qu’une super-tendance : c’est une super-force, qui donne
lieu à d’autres super-tendances. Étudiée de façon plus détaillée ci-dessous, la
croissance économique est la première super-tendance qui résulte directement du
progrès technologique. On a produit et on continue de produire de nouvelles
technologies qui permettent de concevoir, de produire et de livrer de meilleurs biens et
services qui maintiennent un cycle de demande continuel. Cette croissance économique
résultant de la combinaison de ces nouvelles technologies a sans aucun doute créé, au
cours du dernier siècle et demi, une quantité phénoménale de changements de la
société. D’après Cornish, la combinaison de la croissance de la technologie et de celle
de l’économie est une autre super-force, parce qu’elle provoque bien d’autres
changements, y compris quatre super-tendances additionnelles : amélioration de la
santé humaine, augmentation de la mobilité, dégradation environnementale et
augmentation de la déculturation.
La croissance techno-économique a donné lieu à l’amélioration de la santé humaine
grâce à la production et à la distribution de plus d’aliments, à une meilleure intervention
médicale, à des services de santé et à des installations sanitaires améliorées, etc. Des
sociétés en meilleure santé ont vu une longévité prolongée donnant lieu à plusieurs
sous-tendances importantes : croissance de la population et changements
démographiques liés à l’âge. La super-tendance de la mobilité accrue résulte du fait que,
collectivement, le progrès technologique, la croissance économique et la hausse de la
population mondiale donnent lieu à un déplacement accru de personnes, de biens et
d’information à des vitesses et par quantités jamais vues auparavant. D’après Cornish13,
cette hausse de mobilité mondiale semble être la principale cause de la
mondialisation — l’intégration croissante des activités humaines à une échelle mondiale.
En ce qui concerne la méga-tendance de la dégradation environnementale, des
rapports récents de l’OMM et du Groupe intergouvernemental d’experts sur l’évolution
du climat (GIEC) du PNUE13 présentent des arguments convaincants que la croissance
économique mondiale et la hausse de la population sont des facteurs contributifs clés.
Publication no 1 de la collection JADEX
13
Finalement, Cornish attribue la déculturation à l’augmentation de la mobilité globale, aux
changements technologiques rapides, à la croissance économique, à la mondialisation
et à l’urbanisation parmi d’autres facteurs.
Tout en utilisant ces méga-tendances comme cadre global pour simplifier l’énorme
quantité de changements qui caractérise le 21e siècle, les sections qui suivent
examineront plusieurs des tendances sous-jacentes qui contribuent à ces courants
majeurs de notre ère.
Innovation
Le progrès, qu’il soit de nature technologique ou autre, résulte de l’innovation. Une
des marques de l’innovation c’est qu’elle bâtit sur le travail d’autrui : les percées
scientifiques et technologiques ne se produisent pas dans un vide. Les scientifiques et
ingénieurs d’aujourd’hui peuvent retracer leur travail à une longue lignée d’innovateurs.
De plus, l’innovation est favorisée par des prix de prestige tels que le prix Ansari X pour
constructeurs d’engins spatiaux15, le prix Archon X pour la génomique16, le prix
Automotive X17, le concours DARPA Grand Challenge pour véhicules urbains
autonomes18 ou le concours Robo Cup Challenge pour robots humanoïdes autonomes19.
Ces concours attirent et motivent une énorme quantité de capital intellectuel humain. En
outre, plusieurs initiatives de collaboration ouverte axées sur le Web telles que
ThinkCycle20, tentent de créer une culture d’innovation de conception à source libre,
avec une collaboration permanente parmi des individus, des collectivités et des
organisations dans le monde entier. Un autre service Web, lancé en 1999, yet2.com21,
vise à rapprocher acheteurs et vendeurs de technologies, pour que toutes les parties
maximisent le rendement de leurs investissements. Le service yet2.com excelle dans la
localisation de potentiel de valeur IP non réalisé, notamment dans des situations où
Internet et la technologie offrent des occasions substantielles de commercialisation de
produits, de services ou de relations de coopération avec des tiers.
En plus d’une fondation de recherche scientifique de base, l’innovation exige la
créativité. La science-fiction a souvent été l’inspiration créative pour bien des
développements technologiques qui finissent par transformer la fiction en réalité. Après
tout, les écrivains de science-fiction ont présagé la communication sans fil, les aéronefs,
les armes nucléaires, le cyberespace, les virus informatiques et les voyages dans
l’espace parmi de nombreux autres développements. Paul Saffo, un prévisionniste
technologique de la Silicon Valley conseille les leaders principaux de se tenir au fait de
la science-fiction que lisent les nouvelles recrues afin d’avoir une idée de ce que cellesci voudront construire ou mettre en œuvre lorsqu’elles deviendront gestionnaires
intermédiaires22. La source de la créativité pour la jeunesse d’aujourd’hui se trouve de
plus en plus dans des jeux informatisés et des mondes virtuels23. Ces sources variées
de stimulation créative continueront de causer des avancées novatrices scientifiques et
technologiques.
Ray Kurzweil était un des premiers à proposer un nom pour l’assaut continu de
l’innovation technologique : « Law of accelerating returns » (loi des rendements
accélérés)24. Cette loi décrit l’innovation et le développement technologiques comme une
boucle à réaction positive selon laquelle chaque cycle d’innovation produit un jeu
amélioré d’outils, qui sont utilisés à leur tour pour inventer des outils nouveaux et
meilleurs. Kurzweil et d’autres25 aussi définissent le raccourcissement continu du temps
entre les cycles d’innovation (c.-à-d. des changements accélérés) comme une
caractéristique de prestige du développement technologique. Un bon exemple de
l’application de la loi de Kurzweil se retrouve dans l’industrie de l’automatisation, où une
plus haute fidélité et une automatisation plus souple sont utilisées pour fabriquer des
pièces pour des systèmes automatisés encore meilleurs. Maintenant, un nouvel outil
14
Publication no 1 de la collection JADEX
d’innovation est disponible dans la boîte à outils du concepteur : la fabrication
numérique, qui crée un environnement de gestion du cycle de vie (GCV) des produits
entièrement numérique. Cette capacité a permis à Boeing de « fabriquer »
numériquement son 787 « Dreamliner » au complet avant qu’un seul nouvel outil soit
fabriqué26. Cette capacité permet de réaliser des conceptions novatrices avec moins de
risques de gaspiller du temps sur une conception qui n’est pas facile à fabriquer.
Évidemment, des cycles de conception-fabrication plus rapides contribueront au rythme
accéléré des changements en développement technologique.
Le prototypage rapide, nom courant donné à une variété de technologies connexes
qui sont utilisées pour fabriquer des objets matériels directement à partir de sources de
données CAO, contribue aussi à l’accélération des changements. Ces méthodes sont
uniques : elles ajoutent et collent des matériaux par couches pour former des objets.
Ces systèmes sont connus sous une variété de noms, y compris : fabrication additive;
impression tridimensionnelle; Solid Freeform Fabrication (SFF); et fabrication par
couches. Ces technologies offrent de nombreux avantages par rapport à la fabrication
classique par fraisage ou tournage. Par exemple, on peut former des objets de n’importe
quelle complexité géométrique sans avoir besoin d’un montage de machine ou d’un
assemblage final complexes. Bien que le choix de matériaux ne soit pas aussi grand que
dans le cas des techniques de fabrication classiques, il y a une liste croissante de
matériaux qui peuvent être utilisés dans les systèmes de prototypage rapide, dont : de
nombreux plastiques, des céramiques, des métaux allant de l’acier inoxydable au titane
et le papier simili-bois. Deux nouveaux matériaux viennent d’être ajoutés : une solution
de nitrate d’argent en tant qu’ « encre métallique » et l’acide ascorbique (vitamine C) en
tant que réducteur. Lorsque ces matériaux sont chargés dans une imprimante à jet
d’encre de bureau modifiée, des chercheurs ont pu imprimer des circuits électroniques27.
Ce dispositif expérimental pourrait mener à la fabrication plus sécuritaire, plus
écologique et meilleur marché des dispositifs électroniques.
En outre, la disponibilité des communications mondiales et d’outils de recherche de
pointe axés sur Internet crée un environnement prospère d’innovation donnant lieu à
une meilleure interaction entre chercheurs et à des idées de recherche qui tendent à
multiplier leur incidence et leur accélération. En effet, cet environnement connaît une
amélioration active continue grâce à des initiatives telles que l’initiative National
Academies Keck Futures Initiative28, qui cherche à catalyser les recherches
interdisciplinaires et à améliorer les communications parmi les chercheurs, les
organisations de financement, les universités et le grand public. L’objectif de l’Initiative
consiste à améliorer le milieu pour effectuer de la recherche interdisciplinaire et à
éliminer les barrières institutionnelles et systémiques connexes. La technologie ellemême est en voie de devenir le catalyseur le plus important de la recherche mondialisée.
À titre d’exemple, elle peut donner à une organisation de recherche une journée de 16
ou même de 24 heures en R & D, car l’activité de recherche passe d’un fuseau horaire
à l’autre pour boucler le circuit mondial. La recherche 24 h sur 24 accélère la productivité
d’un projet et offre au commanditaire un avantage potentiel au point de vue
concurrentiel29.
Chose importante, la mondialisation de la R & D change l’équilibre mondial de la
force technologique. Ainsi, d’après un rapport récent du Forum économique mondial30,
les États-Unis ont perdu leur position à titre de leader de l’innovation technologique. Le
rapport précise que les premiers innovateurs sont, dans l’ordre, le Danemark et la
Suède, alors que les États-Unis occupent maintenant le septième rang dans la table du
Forum qui mesure l’incidence de la technologie sur le développement des nations.
Publication no 1 de la collection JADEX
15
Moteurs technologiques
D’après une étude de 2005 effectuée par l’équipe des orientations futures du
Conseil national de recherches du Canada (CNRC) et intitulée Regard sur l’avenir : Les
S-T pour le XXIe siècle31, trois technologies transformatrices principales stimuleront les
changements mondiaux d’ici 2020 : les technologies de l’information et des
communications (TIC), les biotechnologies et les technologies axées sur l’énergie et
l’environnement. Le rapport indique que le pouvoir transformateur des technologies de
l’information et des communications se fait déjà ressentir et qu’il devrait même
s’intensifier d’ici 2020. On s’attend à ce que la puissance informatique soit omniprésente
et fasse partie de la vie quotidienne. D’après les auteurs du rapport, la nature
transformatrice de la biotechnologie aura une incidence définitive sur la plupart des
secteurs de l’économie mondiale. À leur avis, les biotechnologies sont en train de
devenir les S-T les plus importantes du siècle actuel, et ils s’attendent à ce que les
répercussions des biotechnologies dépassent celles des technologies de l’information et
des communications. Les technologies axées sur l’énergie et l’environnement gagnent
rapidement en importance à l’échelle mondiale et sont toutes les deux alimentées par
les récentes études du changement du climat mondial, ce qui laisse croire que cette
vague d’innovations aura une incidence grandissante au cours des prochaines années.
En plus des technologies transformatrices générales ci-dessus, le rapport du CNRC
fait état d’une série de sciences et technologies habilitantes principales. Cependant, les
auteurs reconnaissent que, vu leur complexité, la plupart des progrès importants sont
rendus possibles uniquement par des progrès complémentaires dans d’autres sciences
et technologies habilitantes. En effet, le rapport montre que, de façon croissante, les
thèmes de la « convergence » domineront l’élaboration des S-T. Les nouvelles
technologies constitueront souvent un mélange de deux ou plusieurs disciplines, et les
progrès réalisés dans un domaine donné habiliteront ceux dans un autre (p. ex.,
l’influence de l’informatique sur la recherche génomique). On s’attend à ce que la
convergence de la nanotechnologie, de la biotechnologie, de l’infotechnologie et de la
technologie cognitive (parfois désignées technologies NBIC)32 produise des progrès
importants en santé humaine, en sécurité et dans les applications industrielles, pour ne
nommer que quelques domaines. Un exemple de la convergence des technologies NBI
vient d’être annoncé par IBM33. Il s’agit de la première application d’une nanotechnologie
révolutionnaire d’auto-assemblage par rapport à la fabrication classique de puces de
microprocesseur, qui a emprunté un procédé de la nature pour fabriquer la prochaine
génération de puces d’ordinateur. L’annonce revendique que les puces fabriquées au
moyen de cette technique présentent une augmentation de 35 pour cent de la vitesse
des signaux électriques et peuvent consommer 15 pour cent d’énergie de moins que les
puces les plus perfectionnées fabriquées selon des techniques classiques.
Nous reproduisons ci-dessous la liste du rapport de l’Équipe des orientations
futures du CNRC qui énumère les sciences et technologies importantes qui sont
appelées à connaître une progression considérable jusqu’en 2020 :
Nanoscience et nanogénie : On s’attend à ce que l’incidence des technologies
de la nanoscience et du nanogénie soit la plus considérable de toutes les technologies
habilitantes principales. La nanoscience, soit la science des matériaux à l’échelle atomique et moléculaire, transformera la toile même de la société à long terme.
Science des matériaux : La science des matériaux constitue un domaine multidisciplinaire axé sur les solides fonctionnels, que la fonction servie soit structurelle, électronique, thermique, chimique, magnétique, optique ou une combinaison de ce qui
précède.
16
Publication no 1 de la collection JADEX
Photonique : La photonique s’entend de la science et de la technologie qui est
fondée sur les flux contrôlés de photons, ou particules de lumière, et qui en traite. En
tant qu’outil, l’optique s’immisce dans presque tous les domaines des sciences et de la
technologie.
Microfluides : Les microfluides constituent peut-être l’avenir des « aqualabos ».
On peut les concevoir comme la miniaturisation du laboratoire de culture de cellules,
doté de la capacité de contrôler des combinaisons complexes d’interactions entre les
molécules d’essai et les foyers déterminés sur des cellules individuelles.
Information quantique : L’information quantique recèle le potentiel d’opérer une
révolution dans plusieurs domaines scientifiques et technologiques. Elle exploite des
modes de calcul et de communication fondamentalement nouveaux, parce qu’elle se
fonde sur les lois physiques de la physique quantique plutôt que sur la physique traditionnelle.
En plus des moteurs qui donneront lieu à des développements continus et
importants des sciences et de la technologie, l’Équipe des orientations futures signale
qu’il y a également des points de friction qui pourront ralentir ou réorienter les
développements : d’une part, il y a le défi pour les organismes de réglementation de
suivre le rythme des changements du développement des S-T et, d’autre part, il y a un
sentiment croissant qu’on se fie trop aux S-T, ce qui donne lieu à un certain degré de
technophobie. Un exemple probant est offert par un sondage récent qui était mené par
le Pew Internet & American Life Project auprès de 742 techniciens experts et qui
soumettait la question : « À l’avenir, serons-nous en mesure de maîtriser nos
technologies?34 Un nombre inattendu de 42 % des répondants étaient pessimistes quant
à la capacité des humains à maîtriser la technologie à l’avenir. En d’autres termes, ils
croyaient que les dangers et les dépendances de la technologie augmenteront au-delà
de notre capacité à demeurer maîtres de la technologie.
Un sondage mené en 2006 par l’Institute for the Future (IFTF) et IEEE Spectrum35
parmi plus de 700 membres de l’IEEE a révélé des moteurs semblables à ceux du
rapport du CNRC. Ce sondage était effectué pour déterminer à quels développements
des sciences et de la technologie les membres de l’IEEE s’attendaient au cours des 10
à 50 prochaines années. Les sondeurs étaient d’avis que ce groupe était
particulièrement bien placé pour prévoir les développements en S-T, étant donné que les
membres sont si intimement liés à la réalisation de ces développements — démontrant
la vérité de la citation d’Alan Kay : [traduction] « La meilleure façon de prédire l’avenir
est de l’inventer. »
Le sondage a identifié cinq thèmes qu’on considérait comme les artères principales
des sciences et de la technologie au cours des 50 prochaines années : « puissance
informatique et largeur de bande en abondance », ce qui implique le passage de la
rareté à une extrême abondance tant pour la puissance informatique que pour la
connectivité des réseaux; « transformation sensorielle » c’est-à-dire des « objets » qui
commencent à penser; « infrastructure légère », soit exactement le contraire des
chemins de fer, des réseaux optiques, de la distribution électrique centralisée et d’autres
projets extrêmement chers et compliqués du 20e siècle; « micromonde » résultat produit
lorsque la nanotechnologie commence à se réaliser et est intégrée aux systèmes
microélectromécaniques (MEMS) et aux biosystèmes; et finalement, « biologie
étendue » résultat d’une vaste gamme de technologies, allant du génie génétique à la
bioinformatique, appliquées pour créer de nouvelles formes de vie et modifier
d’anciennes.
Publication no 1 de la collection JADEX
17
Examiner, évaluer et comprendre le rapide changement inévitable que ces moteurs
généraux produiront et y réagir seront les défis permanents pour les grandes
organisations, notamment celles qui ont une inertie institutionnelle considérable. Les FC
en général, et l’Armée de terre en particulier, sont sensibles à ce risque. Les sections qui
suivent examineront bien des principaux instruments d’habilitation technologiques clés
qui continuent d’alimenter la course aux technologies de plus en plus sophistiquées.
Elles seront suivies d’une introduction au grand nombre de tendances au changement
qui commencent à se dessiner et qui finiront assurément par modeler l’avenir.
Importantes tendances technologiques
Depuis plus de 40 ans, la hausse rapide de la puissance informatique cause la
croissance de l’âge de l’information. Cela a eu de fortes répercussions sur les
technologies de l’information et des communications (TIC), qui comprend les
ordinateurs, les dispositifs de mise en réseau et l’infrastructure, tant câblée que sans fil.
La puissance informatique croissante disponible à des prix décroissants est devenue la
réalisation de la prédiction de Gordon Moore d’IBM selon laquelle le nombre de
composants pouvant être montés sur une puce de silicium doublerait à peu près tous les
deux ans. Le résultat de ce taux de croissance exponentielle remarquablement régulier
est qu’un ordinateur de bureau à processeur multicoeur se vend aujourd’hui à un dixmillième du prix, mais avec des performances équivalentes du superordinateur occupant
la première place en 199136. Il s’ajoute à cette amélioration extraordinaire du prix une
réduction tout aussi étonnante de l’encombrement et de la consommation d’énergie des
dispositifs informatisés. Les résultats de ces tendances se voient dans les lecteurs de
musique portatifs d’aujourd’hui qui comportent autant de ressources informatiques que
les ordinateurs principaux d’antan, dans les téléphones cellulaires (essentiellement des
mini-ordinateurs portatifs) qui sont devenus omniprésents sur la planète, et dans la fin
des caméras à pellicule.
Grâce à l’augmentation de la puissance informatique rendue possible par
l’augmentation exponentielle du nombre de composants placés sur les puces,
correspondant à la loi de Moore, et aux progrès phénoménaux de la technologie des
capteurs et des algorithmes logiciels (également rendus possibles par la prolifération de
nos ressources informatiques), des capacités entièrement nouvelles et jusque-là non
imaginées sont en émergence aux laboratoires dans le monde entier. Dans le domaine
de la sécurité, par exemple, des scientifiques informaticiens de l’université de Californie,
à Berkeley, ont conçu un moyen pour analyser l’enregistrement audio des frappes au
clavier pour déterminer ce qui a été tapé. Grâce à cette technique appelée « espionnage
acoustique », les chercheurs étaient en mesure d’entrer le signal audio de plusieurs
enregistrements acoustiques de 10 minutes d’utilisateurs tapant au clavier dans un
ordinateur et d’utiliser un algorithme pour recouvrer jusqu’à 96 pour cent des caractères
entrés37. Si l’on combine cette capacité aux petits dispositifs d’enregistrement portatifs
omniprésents tels que les lecteurs MP3, les téléphones à caméra ou les assistants
numériques personnels, les défis pour la protection de la vie privée et la sécurité
deviennent apparents.
Bien que l’abolition éventuelle de la loi de Moore ait été prédite depuis quelque
temps déjà, de récentes annonces nous amènent à croire que des techniques novatrices
continueront à doubler la puissance des processeurs jusqu’à un point avancé de la
partie initiale du siècle. Par exemple, on s’attend à un autre saut gigantesque de la
puissance des ordinateurs de consommation lorsque les puces38 révolutionnaires de 45
nanomètres d’Intel commenceront à faire leur apparition sur le marché en 2007. IBM
vient d’annoncer39 qu’elle a des plans d’amener la loi de Moore à la troisième dimension
au moyen d’une nouvelle technologie de fabrication de puces par couches appelée «
18
Publication no 1 de la collection JADEX
Through-Silicon Vias » (disposition 3D), qui permet de rapprocher de beaucoup les
divers composants des puces pour la fabrication de systèmes plus rapides, plus petits
et plus éconergétiques. L’annonce indique qu’IBM envisage de cibler les puces de
communication sans fil, les processeurs de puissance, les puces de supercalculateur
Blue Gene et les applications de mémoire à grande largeur de bande40. On peut
s’attendre à ce que chacun de ces domaines continuera à connaître une croissance
exponentielle des performances au cours des prochaines décennies.
Bien que la miniaturisation et la croissance de la puissance des dispositifs aient
profité de la loi de Moore, souvent les circuits intégrés ne représentent qu’environ 10
pour cent de tout système donné. Les autres 90 pour cent restent intouchés, sous la
forme d’une variété de composants discrets passifs encombrants, tels que résistances,
condensateurs, inducteurs, antennes, filtres et commutateurs, qui sont normalement
interconnectés et disposés sur une ou plusieurs cartes imprimées. La miniaturisation
réelle, qui donnera probablement lieu à des dispositifs mégafonctions, s’approche de la
réalité à mesure que les chercheurs continuent de progresser au moyen d’une technique
appelée système sur boîtier (SOP). Le centre de recherches Microsystems Packaging
Research Center du Georgia Institute of Technology, à Atlanta, revendique que leur
technique SOP dépassera de loin la loi de Moore à l’égard de la convergence et de la
miniaturisation des dispositifs41. Cette technique combine des circuits intégrés à des
versions à couche mince de l’échelle micrométrique de composants discrets, et elle
intègre tout dans un nouveau type de boîtier qui est si petit que les ordinateurs de poche
finiront par se situer quelque part entre les dispositifs multifonctions et les dispositifs
mégafonctions42. Les produits SOP seront développés non seulement pour les
communications sans fil, l’informatique et le divertissement; lorsqu’ils sont équipés de
capteurs, les SOP pourraient aussi être utilisés pour détecter toutes sortes de
substances, tant toxiques qu’inoffensives, y compris les produits chimiques dans
l’environnement, les aliments et le corps humain. Le niveau d’intégration de systèmes
faisant appel à la technologie de système sur boîtier (SOP) proposée par les chercheurs
verra une croissance exponentielle passant d’environ 50 composants par centimètre
carré en 2004 à une densité de composants d’environ un million par centimètre carré
d’ici 2020. Une retombée de la réduction d’encombrement de cette envergure c’est
qu’elle permet des signaux entre puces beaucoup plus rapides à des courants et
tensions inférieurs, ce qui réduit la dissipation de la puissance. Le but ultime de la
miniaturisation de système sera la création de particules de poussière intelligentes
comprenant des capteurs, des sources d’alimentation, des circuits de communication et
de traitement numériques dans un volume de un millimètre cube.
Au chapitre du stockage des données, des chercheurs de Caltech et d’UCLA
viennent d’annoncer43 la création d’un circuit de mémoire, de la taille d’un globule blanc
humain, capable de stocker 160 kilobits de données — soit l’équivalent de 100 milliards
de bits (100 gigabits) par centimètre carré. Cette densité de stockage, la plus grande
jamais produite, a été atteinte environ 13 ans plus tôt que prévu par la loi de Moore. La
capacité de stockage des disques aussi subit une amélioration dramatique. Alors que les
disques et lecteurs haute définition basés sur les lasers bleus viennent à peine d’arriver
sur le marché, une nouvelle génération est déjà en cours de développement, laissant
prévoir une autre augmentation quintuple de la capacité de stockage. Les disques de
première génération faisant appel à des lasers rouges pouvaient contenir environ
5 gigaoctets de données, et les lasers bleus ont porté ce chiffre à 50 Go. Les nouveaux
systèmes faisant appel à des lasers ultraviolets pourraient porter la densité
d’enregistrement des disques à 250 Go44. De même, de nouvelles avancées ont lieu en
stockage sur disque dur. Alors que la capacité des disques durs rotatifs (DDR)
classiques a atteint l’ordre des téraoctets45, 2007 a vu l’avènement des disques durs à
Publication no 1 de la collection JADEX
19
semi-conducteurs46. Bien qu’ils ne soient pas compétitifs en termes de coût par
gigaoctet, les disques durs à semi-conducteurs (DDS) offrent de nombreux avantages :
ils sont plus légers, rapides, silencieux et éconergétiques que les disques durs
classiques, ils sont plus résistants à une manipulation brutale dans les applications
portatives et produisent moins de chaleur. De récents rapports ont indiqué qu’on est en
train de fabriquer des disques durs à semi-conducteurs avec des débits de données
jusqu’à 62 Mo/s — soit environ 100 fois plus rapides que les DDR classiques. Ce niveau
de performance donnera probablement lieu à des téléphones cellulaires pouvant
enregistrer plusieurs heures de vidéo, ou bien à des ordinateurs bloc-notes plus petits
d’une autonomie grandement améliorée. Comme dans le cas de la plupart des
technologies d’information antérieures, les prix diminuent tandis que les capacités
augmentent. En effet, certains rapports47 affirment que la technologie avance un peu plus
rapidement que ne le prévoit la loi de Moore, la densité de mémoire doublant chaque
année. Cela est partiellement dû au fait que, il y a quelques années, la technologie
NAND était produite sur des chaînes de fabrication secondaires. Aujourd’hui, les
fabricants la mettent en place sur leurs installations principales, ce qui accélère le
développement des produits.
La prédiction relative à la « puissance informatique en abondance » faite par des
membres d’IEEE, comme nous l’avons déjà dit, semble être un résultat fort plausible de
ces développements de la technologie. À mesure que la puissance informatique
augmente, alors que la consommation d’énergie et l’encombrement diminuent, on peut
s’attendre à ce que les capacités informatiques soient intégrées de plus en plus à toutes
sortes de dispositifs — les transformant en dispositifs intelligents — ce qui donne lieu à
la possibilité de l’informatique omniprésente48. Les derniers téléphones cellulaires sont
déjà appelés téléphones intelligents.
Les avancées en vitesse de transmission des données, en durée de vie de batterie
et en capacité de stockage changent les téléphones cellulaires ou téléphones
intelligents en outils multifonctions. La possibilité d’utiliser un téléphone comme
téléviseur, carte de crédit ou récepteur GPS porte ce dispositif à de nouveaux niveaux
d’utilisabilité. La dernière génération de téléphones prendra en charge l’exploration
mobile du Web, permettant l’itinérance transparente aux points d’accès Wi-Fi, aux
réseaux cellulaires et aux nouveaux réseaux de données haute vitesse. Beaucoup
s’attendent maintenant à ce que d’ici dix ans le téléphone cellulaire — ou son
successeur évolutionnaire — remplace l’ordinateur portatif à titre d’outil Internet
dominant49. Certains fabricants de téléphones cellulaires facilitent déjà cette tendance.
Ainsi, LG Electronics, le cinquième plus grand fabricant de combinés mobiles au monde,
vient d’annoncer qu’en 2007, il mettra sur le marché 10 nouveaux modèles de
téléphones qui seront préinstallés avec Google Maps, Gmail et autres produits et
services Google50.
Ces tendances continues des TIC ont eu pour effet que l’Union internationale des
télécommunications (UIT) a prédit la possibilité de créer « The Internet of Things »51
(L’Internet des objets). Dans un rapport de 2005 portant ce titre, l’UIT avance que le
monde développé est au seuil d’une ère d’informatique et de communication
omniprésentes, qui a le potentiel de transformer radicalement nos sphères commerciale,
communautaire et personnelle. À mesure que les tendances des TIC continuent, les
étiquettes d’identification par radiofréquence (RFID), les capteurs, la robotique et la
nanotechnologie rendront la puissance de traitement de plus en plus disponible dans
des boîtiers de plus en plus petits, de sorte que l’informatique en réseau se confondra
avec la toile des objets qui nous entourent. Le rapport avance que les indicateurs
précoces de cet environnement d’information et de communication omniprésent sont
déjà apparents dans la prolifération de téléphones cellulaires de plus en plus puissants
20
Publication no 1 de la collection JADEX
et nombreux. Les auteurs affirment que la capacité existante des connexions « n’importe
quand » et « n’importe où » fournies par les TIC actuelles sera élargie pour inclure des
connexions à « n’importe quoi ». Ce développement est essentiellement le sens de la
vision de la « transformation sensorielle » des membres de l’IEEE, que nous avons
mentionnée plus haut.
La prolifération des données numériques est, et sera toujours, une retombée de la
prolifération des TIC. Dans un livre blanc d’IDC commandité par l’EMC Corporation et
intitulé « The Expanding Digital Universe: A Forecast of Worldwide Information Growth
Through 2010 », les auteurs décrivent l’ampleur alarmante de cette situation52. D’après
ce rapport, entre 2006 et 2010, l’information ajoutée annuellement à l’univers numérique
passera de 161 exaoctets à 988 exaoctets53 dans une grande mesure en raison de trois
conversions majeures de l’analogique au numérique : de la saisie analogique sur
pellicule à la saisie d’image numérique; du signal vocal analogique au signal vocal
numérique; et de la télévision analogique à la télévision numérique. IDC prédit que, d’ici
2010, des organisations, y compris des entreprises, des corporations et des
gouvernements, seront responsables de la sécurité, de la protection de la vie privée, de
la fiabilité et de la conformité d’au moins 85 % de l’univers numérique, malgré le fait que
des individus en auront créé près de 70 %. Cette croissance incroyable de l’univers
numérique a des implications pour les individus et les organisations à l’égard de la
protection de la vie privée, de la sécurité, de la protection de la propriété intellectuelle,
de la gestion du contenu, de l’adoption de la technologie, de la gestion de l’information
et de l’architecture des centres de traitement des données. Vu cette situation, ce ne peut
pas être une simple coïncidence que des entreprises de gestion des données telles que
Google atteignent une proéminence mondiale sur Internet. Les initiatives de
numérisation des FC et de l’Armée de terre donneront lieu à des problèmes de gestion
des données semblables. Paradoxe de l’univers numérique, en raison des changements
rapides de la technologie, à mesure que notre capacité à stocker l’information
numérique augmente, notre capacité à la stocker à long terme diminue. La durée de vie
d’un support d’enregistrement numérique est beaucoup plus courte que celle de la pierre
ou du papier; c’est que le support d’enregistrement se détériore, mais, chose plus
importante, les dispositifs de lecture deviennent obsolètes. La durée de vie nominale
d’un disque dur standard peut être de pas plus de 5 ans, et la vie utile d’une bande
magnétique a été estimée à pas plus de 10 ans. Bien que la durée de vie des CD et
des DVD soit encore inconnue, il se peut qu’elle ne soit pas de beaucoup plus de 20 ans.
Les pratiques de gestion des données doivent tenir compte de cette situation et veiller
à ce que les données stockées sur d’anciens supports soient continuellement
transférées à de nouveaux supports normalisés à mesure qu’ils atteignent la maturité.
Mis à part les dispositifs informatiques de consommation, la technologie des
superordinateurs continue également de s’améliorer de façon exponentielle54. Les
superordinateurs sont utilisés pour résoudre des problèmes complexes, y compris la
simulation et la modélisation de phénomènes physiques, tels que le changement du
climat, les explosions ou le comportement de molécules et l’analyse de données venant
de sources telles que le renseignement de sécurité nationale, le séquençage de
génomes ou des observations astronomiques, ou encore la conception complexe de
produits techniques55. Leur utilisation est importante pour la sécurité et la défense
nationales, ainsi que pour la recherche et développement en science et technologie.
L’importance du développement des superordinateurs est reflétée par la réaction des
États-Unis au superordinateur japonais, Earth Simulator, qui avait pris la première place
mondiale en superinformatique en 2002 (et l’a conservée pendant deux ans). Les É.-U.
ont réagi par un financement considérable et, depuis 2004 ont repris la première place,
avec pas moins de trois (et maintenant quatre) machines plus rapides56. On peut
Publication no 1 de la collection JADEX
21
s’attendre à des machines encore plus rapides à mesure que les superordinateurs de la
prochaine génération axés sur le laser à diode de NEC appelé « laser à cavité verticale
et à émission par la surface » (VCSEL)57 sont mis au point avec le potentiel d’atteindre
des niveaux de performance du petaflop58.
Pour ceux d’entre nous qui utilisent la puissance informatique de notre ordinateur
de bureau pour peu de choses autres que la création de documents et le courriel, un
superordinateur plus rapide peut sembler plutôt peu pertinent. Pourtant, rien ne pourrait
être moins vrai. La puissance informatique de ces machines permet d’effectuer des
simulations de si haute fidélité qu’elles s’approchent de la fidélité du monde réel (et, en
effet, elles permettent de simuler des événements ou des phénomènes que nous ne
pourrions même pas espérer tenter dans le monde matériel réel). Cela veut dire que les
dernières innovations peuvent être simulées sur un superordinateur avant que toute
fabrication ou toute réalisation de l’outillage ait lieu, et la combinaison à des outils de
prototypage rapide tels que des imprimantes 3D veut dire que les dernières innovations
peuvent être mises sur le marché à un rythme de plus en plus rapide. Par conséquent,
il est presque certain que la croissance exponentielle de la technologie continuera (sauf
catastrophe majeure).
Il est à noter que, alors que les États-Unis consacrent une part considérable de
leurs ressources en superordinateurs à des fins militaires, d’autres pays (dont
maintenant la Chine) utilisent de plus en plus leurs installations de superordinateurs à
des fins d’innovation commerciale. Il est peu probable que ce soit une simple
coïncidence que l’ensemble des pays G8 possèdent 417 des 500 superordinateurs les
plus rapides au monde. Il est également à noter que la Chine et l’Inde, qui connaissent
toutes les deux une croissance économique considérable, ont chacune plus de
superordinateurs parmi les 500 plus rapides que le Canada et la Russie combinés. Si le
nombre de superordinateurs est effectivement un indicateur du potentiel de croissance
économique, on peut s’attendre à ce que la Chine et l’Inde poursuivent leurs trajectoires
de croissance récentes.
En nous penchant sur les technologies habilitant la largeur de bande, nous
constatons des tendances très similaires tant dans le domaine câblé que dans le
domaine sans fil. Au chapitre de l’infrastructure des réseaux optiques, Alcatel-Lucent
Bell Labs vient d’annoncer la création d’un nouveau filtre optique sur puce59 qui devrait
assurer l’intégration des dispositifs électroniques au silicium et des fibres optiques. Cette
intégration éliminera les goulots d’étranglement actuels causés par les filtres de réseau
qui doivent convertir les signaux optiques en signal électrique pour les conditionner, puis
reconvertir ce signal en signal optique avant la retransmission. De même, des
chercheurs d’IBM viennent d’annoncer60 un nouveau jeu de puces d’émetteur-récepteur
optique qui peut transférer les données à des vitesses de jusqu’à 160 Go par seconde,
soit huit fois plus vite que les composants optiques antérieurs.
Pour promouvoir encore l’innovation de la largeur de bande à l’intérieur de
l’infrastructure des réseaux fixes, le consortium Internet261 commandite le concours
Internet2 Land Speed Record (I2-LSR) pour la plus grande largeur de bande de réseau
de bout en bout — concours ouvert et permanent. Le détenteur du record actuel dans la
catégorie IPv662 — classe de flux simple — est une équipe composée de membres de
l’université de Tokyo, du projet WIDE, de la Microsoft Corporation et d’autres. Cette
équipe a atteint un débit de données de 272 400 térabits-mètres par seconde en
transférant 585 gigaoctets de données sur un réseau de 30 000 kilomètres en environ
30 minutes — soit un débit moyen équivalent de 9,08 gigabits par seconde63.
Pour ce qui est du réseautage sans fil, l’utilisation d’antennes multiples à l’émetteur
et au récepteur, connu couramment comme le sans-fil à entrées et à sorties multiples
22
Publication no 1 de la collection JADEX
(MIMO), est une technologie économique en émergence qui devrait réaliser des liaisons
sans fil à 1 Go/s. Cette technologie est également désignée « à antennes
intelligentes ».64 La technologie MIMO a attiré l’attention en communications sans fil,
puisqu’elle offre des augmentations considérables du débit de données et de la portée
des liaisons sans exiger de largeur de bande ou de puissance d’émission additionnelles.
Elle y parvient grâce à une plus grande efficacité spectrale (davantage de bits par
seconde par Hertz de largeur de bande) et une plus grande fiabilité ou diversité de la
liaison (évanouissement réduit).
Plusieurs technologies laissent prévoir des vitesses large bande véritable qui
rapprocheront la connectivité omniprésente de la réalité. Trois technologies ont émergé
pour couvrir la gamme allant des courtes distances aux distances étendues : la bande
ultralarge (UWB), la fidélité sans fil (Wi-Fi) et l’interopérabilité mondiale en vue de
l’accès par micro-ondes (WiMAX). Les systèmes UWB conviennent à des distances
jusqu’à 10 mètres, alors que les systèmes Wi-Fi couvrent normalement des distances
jusqu’à 100 mètres, et les systèmes WiMax sont prévus pour des distances jusqu’à 50
kilomètres.
La technologie UWB est basée sur la norme WiMedia et offrira la commodité et la
mobilité des communications sans fil à des interconnexions haute vitesse de dispositifs
dans l’ensemble d’un foyer ou bureau numérique. Elle est conçue pour des réseaux
personnels sans fil (WPAN) à courte distance et à faible puissance et c’est la technologie
de choix pour libérer les gens des fils, permettant la connexion de dispositifs multiples
pour la transmission de vidéo, d’audio et d’autres données exigeant une grande largeur
de bande. La technologie UWB assure la transmission de données par radio dans la
bande 3,1-10,6 GHz, capable d’atteindre des débits de données s’approchant de
500 Mbit/s avec un parasitage réduit.
Les réseaux Wi-Fi font appel aux technologies radioélectriques appelées IEEE
802.11a, 802.11b et 802.11g pour assurer la connectivité sécurisée, fiable, rapide, sans
fil. On peut utiliser un réseau Wi-Fi pour connecter des ordinateurs entre eux, à Internet
et à des réseaux câblés (qui font appel au protocole IEEE 802.3 ou Ethernet). Les
réseaux Wi-Fi fonctionnent dans les bandes radio exemptes de licence de 2,4 et de 5
GHz, et permettent un débit de données de 11 Mb/s (802.11b) ou de 54 Mb/s (802.11a)65
ou sont utilisés avec des produits qui offrent les deux bandes. Ils peuvent fournir des
performances en conditions réelles semblables à celles des réseaux câblés Ethernet
10BaseT66.
La technologie WiMAX est basée sur la norme IEEE 802.16, et l’on s’attend à ce
qu’elle permette des vitesses large bande véritable sur des réseaux sans fil à un prix qui
permettra l’adoption par le marché de masse. Deux applications principales sont
envisagées pour le WiMAX : les applications WiMAX fixes permettant l’accès large
bande point à multipoint aux foyers et aux entreprises; et le WiMAX mobile, qui offre la
mobilité intégrale des réseaux cellulaires à des vitesses large bande véritable. Les
applications tant fixes que mobiles du WiMAX sont conçues pour aider à fournir des
services large bande sans fil omniprésents à grand débit et à frais réduits. Certains
chercheurs s’attendent à ce que les technologies sans fil de la prochaine génération
(4G) évoluent vers la norme WiMAX, faisant appel à des réseaux axés exclusivement
sur IP, ce qui est considéré comme le moyen idéal pour fournir des services de données
sans fil économiques67. L’importance du routage axé exclusivement sur IP est reflétée
par un projet de démonstration de la technologie de capacité interarmées (JCTD) du
Département de la défense des États-Unis récemment annoncé68 et visant à essayer le
routage Internet dans l’espace (IRIS). Intelsat General Corp., filiale en propriété
exclusive d’Intelsat Ltd, a été sélectionnée pour démontrer la viabilité d’effectuer des
communications militaires via un routeur Internet dans l’espace, qui sera utilisé à des
Publication no 1 de la collection JADEX
23
fins commerciales, une fois les essais terminés. Si le projet IRIS est couronné de
succès, Internet sera étendu à l’espace, en intégrant les systèmes par satellite à
l’infrastructure au sol, ce qui améliorera la largeur de bande pour les combattants
américains, les premiers intervenants et d’autres utilisateurs qui ont besoin de
communications continues et instantanées.69
La communication par satellite, capacité importante pour les opérations militaires,
subit également d’importants changements. Ainsi, les nouveaux satellites faisant partie
du programme Skynet 5 viennent d’être mis en service, ce qui a doublé la largeur de
bande disponible aux forces UK dans le théâtre de guerre en Afghanistan et en Iraq70.
Chose remarquable, ce système de communication n’appartient pas aux forces armées,
mais plutôt à Paradigm Secure Communications, consortium d’entrepreneurs en
défense dirigé par EADS Astrium, le leader des entreprises aérospatiales européennes.
Bien que Paradigm travaille à contrat pour UK MOD (dans le cadre d’une Private
Finance Initiative) pour fournir la largeur de bande assurée, l’arrangement prévoit la
vente de largeur de bande de réserve sur les nouveaux satellites aux forces « amies »,
ce qui est payant non seulement pour Paradigm, mais aussi pour le ministère anglais de
la Défense. Le Canada compte parmi les forces qui achètent de la largeur de bande de
Paradigm.
Comme nous l’avons déjà dit, il y a plusieurs nouvelles technologies radio en cours
de développement, y compris Bluetooth, ZigBee, un nombre croissant de services
cellulaires vocaux et numériques et la radiodiffusion par satellite. Pour que cette
prolifération de technologies sans fil fonctionne avec un parasitage minime, chacune est
limitée à des bandes particulières du spectre électromagnétique. Toutefois, la gestion
classique du spectre est limitée par la façon dont elle divise le spectre en canaux et par
les techniques de codage et les schémas de modulation qu’elle peut utiliser71. Une
technologie en émergence se pointe à l’horizon, soit la radio cognitive, qui devrait
redéfinir la gestion du spectre. Un poste de radio cognitive sera un appareil sans fil qui
sera assez intelligent pour analyser l’environnement radio et décider lui-même de la
meilleure bande de fréquences et du meilleur protocole à utiliser pour atteindre toute
station de base avec laquelle il doit communiquer, au plus bas niveau de consommation
d’énergie72.
Bien que le matériel informatique et les réseaux continuent de connaître une
croissance exponentielle, habilitant des vitesses de transfert de données et des
capacités de stockage sans précédent, les interfaces utilisateur qui assurent l’accès
efficace et efficient à des quantités toujours croissantes de données numérisées n’ont
pas emboîté le pas. Cela changera probablement au cours des quelques prochaines
années, à mesure que de nouveaux modes de manipulation des données seront
habilités par des interfaces multitactiles, des dispositifs haptiques et des contrôleurs
sensibles au mouvement. Un exemple précoce de la fonction multitactile a été
développé et démontré par Jeff Han au Department of Computer Science Courant
Institute of Mathematical Sciences de la New York University73. La détection multitactile
permet aux utilisateurs d’interagir avec un système avec plusieurs doigts à la fois. Ces
dispositifs de détection ont également la capacité inhérente de prendre en charge
plusieurs utilisateurs en même temps, ce qui est particulièrement utile pour les écrans
interactifs plus grands tels que les murs et les dessus de table interactifs — par
conséquent, ils conviennent à merveille aux affichages de systèmes de commandement
et de contrôle aux quartiers généraux de formation et d’unité. En revanche, les
dispositifs haptiques permettront aux utilisateurs de toucher ou de sentir les données
numérisées. Une interface haptique est un dispositif qui permet à l’utilisateur d’interagir
avec un ordinateur tout en recevant une rétroaction tactile. Cette rétroaction est réalisée
par l’application d’un certain degré de force opposée à l’utilisateur74 au moyen d’une
24
Publication no 1 de la collection JADEX
variété de techniques, y compris la sustentation magnétique.75 Une autre forme
d’interface à rétroaction est le contrôleur sensible au mouvement, popularisé par le
système de jeux Nintendo Wii76. Combinés aux progrès exponentiels de la qualité des
graphismes informatiques qui fournissent de plus en plus des affichages réalistes de
mondes virtuels 3-D, ces interfaces donneront lieu à des environnements virtuels
convaincants et réalistes.
La conception et le développement des logiciels, comme la technologie des
interfaces, commencent également à subir des changements importants. Le
développement s’éloigne du modèle séquentiel, dans lequel la progression est un
passage continu par les phases d’analyse des exigences, de conception, de mise en
œuvre, d’essais (de validation), d’intégration et de maintenance. Les nouvelles
méthodes verront assurément une plus grande agilité77, habilitée par les TIC, devenant
interactive et coopérative, et ce, souvent en temps réel. La mise en valeur de ces
progrès au sein de la communauté de la défense posera des défis de taille. Sue Payton,
Undersecretary of Defense (Advanced Systems and Concepts) du département de la
Défense des États-Unis, décrit ces défis dans une version en ligne du magazine
« Military Information Technology ». Elle indique que les logiciels de défense sont encore
souvent acquis selon les mêmes processus d’affaires de l’âge industriel utilisés pour
acquérir navires, chars et autres machines matérielles78. À son avis, afin de conduire une
guerre de l’âge de l’information, il faudra de nouveaux processus d’affaires qui
permettent une évolution plus rapide des capacités. Au contraire des aéronefs ou des
chars, qui exigent des usines pour produire des copies multiples, les logiciels peuvent
être polycopiés parfaitement, à partir de pratiquement tout emplacement et être modifiés
à la volée pour que leurs caractéristiques soient changées.
Les environnements de développement en émergence tels qu’Ajax, ainsi que les
technologies de la couche présentation, permettront de combiner des ensembles de
données à la demande au moyen d’une quantité de programmation minime. Une autre
tendance croissante est la fourniture de logiciels à titre de service Web — dont on trouve
un exemple dans la fonction « Document et Tableur » de Google, qui permet aux
utilisateurs de créer des documents et tableurs compatibles MS Office sans installer
aucun logiciel (sauf un explorateur Web standard). Les documents ainsi créés peuvent
être édités (même en collaboration) à partir de tout ordinateur ayant accès au Web et
être partagés sans problème. Il y a un nombre croissant de services logiciels axés sur
le Web. La base de données Office 2.079, par exemple, énumère plus de 250 services
axés sur le Web, groupés par domaine d’applications [en anglais seulement], y compris :
bookmarks (signets), business intelligence (renseignements d’affaires), calculators
(calculatrices), calendars (calendriers), clipboards (bloc-notes), contacts, CRM (gestion
des relations avec la clientèle), databases (bases de données), desktop publishing
(éditique), development tools (outils de développement), document managers
(gestionnaires de documents), drawing (dessin), email (courriel), event managers
(gestionnaires d’événements), expense trackers (logiciels de suivi des dépenses), fax
(télécopies), feed processors and readers (processeurs et lecteurs de signaux), files
managers (gestionnaires de fichiers), file senders (logiciels d’envoi de fichiers) et file
servers (serveurs de fichiers). De nouveaux services Web, tels qu’iUpload80 et
Knownow81, devraient également fournir des outils qui permettront aux organisations de
bâtir des systèmes organiques autogérés de gestion de connaissances, notamment
lorsqu’ils sont combinés à des applications de recherche d’entreprise et de
renseignements d’affaires.
Ensemble, les innovations susmentionnées en traitement informatique, capacité de
mémoire, capacité de stockage sur disque, largeur de bande, interfaces et
développement de logiciels continueront à stimuler l’innovation en TIC. Il ne faut pas
Publication no 1 de la collection JADEX
25
sous-estimer l’importance des TIC pour le développement national et la croissance
économique. En effet, le rapport repère Global Information Technology Report du Forum
économique mondial, qui évalue les forces et les faiblesses des TIC nationales, souligne
l’importance continue des TIC82. La forte corrélation entre les nations occupant une place
médiocre sur l’Indice de préparation pour l’accès au réseau du Forum économique
mondial83 et le Failed States Index (indice des États en déroute)84, fourni par
Foreign Policy.com, renforce l’importance des TIC globales non seulement pour le
développement économique, mais aussi pour la sécurité mondiale. De même, dans son
« Rapport 2006 sur l’économie de l’information », la Conférence des Nations Unies sur
le commerce et le développement (CNUCED) indique que les processus économiques
mondiaux, y compris le commerce international, sont de plus en plus influencés par la
création, la dissémination, l’accumulation et l’application d’information et de
connaissance85. En outre, elle conclut qu’on ne peut plus comprendre le développement
sans considérer de façon approfondie les effets généralisés des TIC. Le rapport estime
que les réseaux à large bande pourraient contribuer des centaines de milliards de
dollars par année au PIB des pays développés au cours des quelques prochaines
années. Bien que cela puisse surprendre certains, dans le rapport, l’importance des
réseaux à large bande a été comparée à celle des services publics tels que l’eau et
l’électricité. La CNUCED avertit que l’importance croissante de l’accès Internet haute
vitesse est une « nouvelle inquiétante » pour les pays en voie de développement où
l’accès large bande est rare, parce que la technologie exerce une influence de plus en
plus grande sur les tendances commerciales mondiales86.
La prolifération mondiale des technologies de l’information et des communications
citée ci-dessus habilite des capacités révolutionnaires. Les superordinateurs, dont on a
traité plus haut, ne sont plus réservés aux pays riches. Les réseaux à large bande
combinés à la prolifération d’ordinateurs individuels de plus en plus puissants et
connectés à Internet ont mis les superordinateurs à la disposition des peuples. Les
principaux acteurs de la technologie, tels qu’IBM, Sun Microsystems Inc. et HewlettPackard Co., vendent déjà de la puissance informatique, à grande échelle, à des
corporations majeures. De nouveaux services, par contre, offerts par Amazon.com Inc.
et 3tera Inc. par exemple, fournissent l’informatique sur demande aux petites et
moyennes entreprises. Ce concept est connu sous le nom d’informatique répartie et fait
appel à une technique appelée virtualisation. Ainsi, Amazon fournit des serveurs virtuels
qui ont la puissance équivalente d’une machine avec un processeur Xeon 1,7 GHz, près
de 2 Go de RAM, un disque dur 160 Go et une connexion Internet haute vitesse. Les
utilisateurs paient sur demande à un tarif de 10 cents par serveur virtuel à l’heure pour
l’accès à des instances générées de serveurs virtuels87. De nombreux projets de
recherche scientifiques utilisent l’inverse de cette technique, en fournissant aux
utilisateurs d’ordinateurs domestiques une application qui relie ces ordinateurs
automatiquement dans une configuration de superordinateur réparti, qui fait appel à la
capacité de traitement excédentaire des ordinateurs domestiques. Dernièrement, cette
technique a également été élargie pour inclure des consoles de jeux haut de gamme,
d’après l’annonce de Sony88 que la dernière console de cette entreprise, la PS3, sera
capable de participer au projet [email protected] mené par la Stanford University89. Des
niveaux remarquables de puissance informatique ont été atteints au moyen de cette
technique. À titre d’exemple, l’application Berkeley Open Infrastructure for Network
Computing (BOINC), relie près de 2 millions d’ordinateurs pour 41 projets de recherche
différents. Le projet de prédiction du climat à lui seul atteint en moyenne l’équivalent de
43 183 milliards de calculs par seconde90. Comme l’application BOINC est à source libre,
il est raisonnable de prédire qu’au fil du temps, d’autres projets seront ajoutés. Il peut
être difficile, toutefois, de garantir que de nouveaux projets ne seront pas conçus à des
fins malicieuses malgré leur apparence bienveillante.
26
Publication no 1 de la collection JADEX
Une autre tendance habilitée par les TIC est la prolifération de l’hébergement
Internet. Yahoo! vient d’annoncer qu’il offrirait à ses utilisateurs un stockage illimité de
courriels91. D’autre part, le Gmail de Google offre à ses utilisateurs une capacité de
stockage de fichiers de près de 3 gigaoctets. Chacune de ces offres n’aurait sans doute
pas été possible sans la réduction des frais du stockage de données indiquée plus haut.
Un autre exemple dans ce domaine, Amazon S3 (service de stockage simple), est un
système de stockage sur Internet conçu pour faciliter l’informatique à l’échelle du Web
pour les développeurs. Amazon S3 offre une interface simple de services web qui peut
être utilisée pour stocker et extraire n’importe quelle quantité de données, n’importe
quand, de n’importe où sur le Web. Il donne à un développeur quelconque accès à la
même infrastructure de stockage de données fortement dimensionnable, fiable, rapide
et peu dispendieuse qu’Amazon utilise elle-même pour exploiter son réseau mondial de
sites Web. Il n’y a pas de droits minimaux et pas de frais initiaux. À titre d’exemple du
caractère économique de cette offre, un investissement mensuel de 200 $ fournirait une
capacité de stockage de 667 gigaoctets et permettrait le transfert de 500 gigaoctets de
données92. En combinant Amazon S3 à Elastic Compute Cloud d’Amazon (Amazon
EC2), les développeurs ont accès à l’informatique à l’échelle du Web, pratiquement de
n’importe où dans le monde, ce qui simplifie leurs activités de développement. Étant
donné ce niveau de ressources informatiques disponibles à quiconque a un accès
Internet, on aurait tort de croire que des groupes d’insurgés ou des organisations
criminelles ne sont pas technohabilités.
La projection de la « puissance informatique et largeur de bande en abondance »
des membres de l’IEEE, de même que la prévision du CNRC en matière de TIC,
résultent de la confluence des tendances de croissance exponentielle continue en
technologie de l’information et en communications par réseau à large bande à haute
vitesse telles que décrites ci-dessus. Les puces deviennent plus éconergétiques, plus
petites et de plus en plus puissantes. La capacité informatique et la largeur de bande
des réseaux, qu’ils soient à câble optique ou sans fil, continuent de se répandre et de
prendre de l’importance à titre de capacité nationale vitale.
Dans les environnements militaires, l’importance des technologies de l’information
et du réseautage est reconnue depuis de nombreuses années. En effet, le succès du
concept des opérations adaptables et dispersées pour l’Armée de terre de demain
dépend de la distribution adéquate des TIC jusqu’aux plus bas niveaux, y compris les
soldats individuels débarqués. Ici, l’hypothèse est basée sur la logique selon laquelle la
mise en réseau de chacun et de tout permettra aux acteurs en périphérie du réseau93 de
prendre des décisions indépendantes. Les parallèles avec les principes du
commandement de la mission dans la doctrine actuelle de l’Armée de terre devraient
être évidents. L’accès omniprésent aux réseaux épouse également l’idée de la «
sagesse de la foule »94 de James Surowiecki, selon laquelle les grands groupes de gens
sont plus avertis que quelques personnes d’élite, peu importe la brillance de celles-ci.
D’après Surowiecki, les foules en réseau sont plus capables de résoudre des
problèmes, de favoriser l’innovation, d’en arriver à des décisions sages et même de
prédire l’avenir. Néanmoins, de nombreuses questions demeurent sans réponse,
notamment en ce qui a trait à l’incidence sur les décisions relatives aux ressources
humaines. Par exemple, quels seront les critères les plus importants pour la sélection de
leaders à l’avenir? À cette époque, quelle est l’exigence principale d’un bon
commandant? — l’expérience opérationnelle ou la capacité à gérer les ressources
humaines? Peut-être que les tendances qui se dessinent maintenant dans les secteurs
commerciaux peuvent nous mettre sur la piste; les PDG de nos jours connaissant le plus
de succès sont ceux qui favorisent, développent et créent un environnement qui habilite
la périphérie — en adoptant et encourageant le potentiel novateur des « foules ». Bien
Publication no 1 de la collection JADEX
27
que le commandement de mission puisse être un pas dans cette direction, il se peut que
ce ne soit qu’un petit pas comparativement au potentiel d’habiliter « chacun et tout » sur
le champ de bataille.
Un des principaux avantages de l’environnement TIC qui est en train de devenir
omniprésent que nous avons présenté jusqu’ici est la façon dont il a permis aux gens de
se mettre en réseau. Une retombée clé de cette situation a été une augmentation
dramatique de la collaboration, souvent à une échelle mondiale. Un domaine qui a
grandement bénéficié de ce type de collaboration du genre « sagesse de la foule » a été
le développement de logiciels libres. Bien que ce ne soit pas un développement
nouveau, l’initiative des logiciels libres95 a produit des applications robustes qui sont
devenues un défi d’importance mondiale pour les logiciels propriétaires classiques.
L’échelle seule de la collaboration en réseau mondial a donné lieu à l’élaboration de
logiciels libre dans presque tous les domaines d’application; les logiciels et les codes
source peuvent être téléchargés, utilisés et modifiés librement.
Les promoteurs des principes des logiciels libres avancent que le fait que le code
source libre soit transparent et largement disponible aide à rendre les logiciels libres plus
sécurisés que les logiciels commerciaux. En revanche, d’autres prétendent que
l’absence de contrats entre le vendeur et l’acheteur sur le marché des logiciels libres
rend le déploiement de ces logiciels moins sécurisé. Bien qu’il soit peu probable que
cette controverse soit résolue sous peu, il est fort probable que l’adoption des logiciels
libres fleurira dans les pays en voie de développement à cause des barrières de coût
prohibitives présentées par les logiciels commerciaux de remplacement. Vu la haute
qualité de nombreux logiciels libres, combinée aux nombreux utilisateurs mondiaux qui
fournissent des modifications, des corrections et des mises à niveau, il y a très peu
d’inconvénients pour les pays en voie de développement à suivre cette approche. Les
coûts de partage de code sont faibles, alors que les bénéfices sont élevés. Le projet
« One Laptop Per Child » (un portatif par enfant, OLPC)96 (qui n’utilise que des
applications gratuites) ne servira qu’à renforcer le mouvement des logiciels libres dans
les pays en voie de développement. Il est possible que l’initiative des logiciels libres
combinée à l’OLPC soit la raison derrière la récente annonce de Microsoft de couper les
prix des logiciels pour élèves dans les pays en voie de développement97. Microsoft
envisage d’offrir une version limitée de son progiciel Office aux élèves des pays en voie
de développement au prix de trois dollars par copie. Quelles que soient les motivations
de cette initiative, si on la combine aux logiciels libres, il y a là un potentiel de rétrécir le
fossé numérique existant98. Il est clair que les logiciels libres constituent une tendance
croissante. Il s’agit d’une tendance qui habilite les individus au moyen d’outils et
capacités TIC de pointe, quels que soient leurs emplacements ou leurs moyens
financiers.
De plus, l’initiative des logiciels libres change profondément le visage de
l’éducation. Ainsi, le Massachusetts Institute of Technology (MIT), a lancé, il y a six ans,
son programme novateur OpenCourseWare (OCW)99. Le programme OCW est une
ressource éducative libre (OER) et gratuite pour les enseignants, les étudiants et les
apprenants autonomes dans le monde entier. Le programme OCW assure actuellement
le libre accès aux documents de cours pour jusqu’à 1 550 cours du MIT, représentant 34
départements et les cinq branches du MIT100. L’objectif est d’inclure du matériel de tous
les cours du MIT d’ici 2008. Depuis les efforts de pionnier du MIT, onze autres collèges
américains ont fait état de plans d’offrir des OCW semblables, et cinq d’entre eux ont
déjà une présence en ligne101.
Une autre tendance de réseautage humain en évolution rapide est le phénomène
du réseautage social, y compris les wikis, les blogues, la mise en commun de signets et
le taggage. Chacun de ces domaines présente des similarités avec l’initiative des
28
Publication no 1 de la collection JADEX
logiciels libres susmentionnée; leur force réside dans une participation et une
collaboration optimales de la communauté des utilisateurs. Les changements mis en
œuvre en raison du phénomène social du réseautage social seront abordés de façon
plus approfondie dans une section ultérieure portant sur l’incidence de la technologie sur
la société. Le reste de la présente section porte sur les progrès dans d’autres domaines
technologiques à l’intérieur des TIC.
La recherche en intelligence artificielle est un domaine qui a vu une recrudescence
d’activité grâce aux progrès réalisés en TIC et dans d’autres domaines de recherche
scientifique fondamentale. Certains experts croient que l’avènement de l’intelligence
technologique autonome sera inévitable, mais proposent que la manière et le moment
de la transition demeurent des choix clés sous l’influence d’êtres humains102. Toutefois,
ce qui est le plus remarquable en ce qui a trait aux prédictions relatives à l’intelligence
artificielle (IA), c’est le fait que les experts osent de nouveau faire des prédictions au
sujet de l’avenir de l’IA. L’échec des réalisations des attentes en IA de la fin des années
1980 et du début des années 90 a mené à l’évaporation des fonds de recherche en IA.
Il semble maintenant qu’une masse critique de recherche visant la création d’une vraie
intelligence artificielle et d’autres technologies de pointe, dont la robotique, convergent
rapidement.
Il y a déjà de nombreux exemples de créneaux spécialisés où l’intelligence machine
dépasse les capacités humaines. Par exemple, Wallace Forbes, président du Forbes
Investors Advisory Institute affirme que le programme informatique propriétaire « Quant
Model » de cet institut l’emporte sur la plupart des gestionnaires de portefeuille humains
dans la sélection d’actions. Forbes affirme que plus de 75 % des gestionnaires de
portefeuille le cèdent au marché, alors que, sur une période de 10 ans, le Quant Model
l’a emporté sur le S&P 500 d’un taux étonnant de 362 %103. Certains ont comparé ces
applications intelligentes de créneau spécialisé à des savants autistiques : très doués
dans des domaines très restreints, mais fortement handicapés dans la plupart des
autres. Bien qu’aujourd’hui cela puisse être une comparaison raisonnable, il demeure
qu’il y a un nombre croissant de ces domaines spécialisés où l’IA présente des
performances comparables ou supérieures à celles des humains. Bien qu’il n’y ait pas
de consensus clair parmi les chercheurs en IA, ces domaines spécialisés pourraient finir
par converger, donnant lieu à des systèmes d’IA de plus en plus puissants qui couvrent
une vaste gamme de domaines — atteignant éventuellement une intelligence de niveau
humain.
Un des domaines à succès de la mise en œuvre de l’IA est celui des agents
intelligents. Un agent est un programme (souvent axé sur le Web) qui s’exécute
automatiquement sans qu’un utilisateur ait besoin de le lancer, une fois qu’il a été
configuré. Par exemple, le service de recherche d’emploi en ligne Monster
(www.monster.com) permet aux utilisateurs d’entrer les types d’emplois qu’ils cherchent.
Même lorsque les utilisateurs sont hors ligne, l’agent balaye la base de données
d’emplois de Monster tous les jours et envoie un courriel s’il trouve un emploi qui répond
aux critères de l’utilisateur. Le développement et l’amélioration permanents du Web
sémantique104 promettent d’établir un cadre de données et de connaissance qui
permettra une automatisation plus sophistiquée de l’information et de la connaissance
au moyen des agents intelligents. L’Advanced Research Projects Agency (DARPA) du
département de la Défense des États-Unis finance un programme d’agent intelligent
appelé Personalized Assistant that Learns, ou PAL, qui vise à améliorer radicalement la
façon dont les ordinateurs soutiennent les humains en habilitant des systèmes qui sont
cognitifs, c.-à-d. des systèmes informatiques qui peuvent raisonner, apprendre de
l’expérience, suivre des instructions, expliquer ce qu’ils sont en train de faire, réfléchir à
leur expérience et réagir à la surprise de façon positive105. Notamment, PAL développera
Publication no 1 de la collection JADEX
29
une série de systèmes cognitifs prototypes qui pourront servir d’assistants aux
commandants et à l’état-major. Ce type de développements en IA est en train de
pénétrer dans le domaine commercial. Un des exemples se retrouve dans MATY de
Proto-Mind Machines (PMM) — il s’agit d’un modèle informatisé des réseaux neuronaux
du cerveau humain106. PMM commercialise MATY comme une partie d’un système
portable fourni avec des microphones et un système de vision informatisée
expérimental, tout en revendiquant que le système apprendra et deviendra intimement
lié à l’intellect du porteur.
De plus, les technologies d’intelligence artificielle laissent prévoir l’habilitation et le
perfectionnement des dispositifs intelligents. Ainsi, un produit d’Intelli-Vision107 habilite
les « caméras intelligentes », qui sont capables de sélectionner des événements et
activités suspects108. Ces applications devraient améliorer des fonctions exigeantes en
main-d’œuvre, telles que la surveillance périphérique. Le personnel qui aurait été requis
pour la tâche fastidieuse et susceptible d’erreurs de surveillance de moniteurs vidéo
peut être réaffecté à des activités plus exigeantes. Les dispositifs intelligents dont aptes
à se multiplier à un rythme plus élevé, à mesure que les nouvelles techniques
d’intelligence artificielle, telles que les algorithmes évolutionnaires109, atteignent la
maturité et habilitent des solutions jusque-là hors d’atteinte.
Des annonces de progrès dans divers domaines en rapport avec l’IA paraissent
régulièrement. Les chercheurs abandonnent l’ancienne approche en IA qui tentait
d’imiter le comportement humain au moyen de règles codées sous forme fixe, approche
qui s’est avérée inadéquate dans les situations où les systèmes IA se confrontaient à
des situations qui se trouvaient en dehors de la portée des règles préétablies110.
Beaucoup des plus grandes avancées de la recherche en IA ont été atteintes par la mise
en œuvre d’algorithmes qui apprennent par observation et imitation, comme l’approche
utilisée par les humains. Certains chercheurs prévoient maintenant que le Web sera la
source de la connaissance brute nécessaire pour doter l’IA future de la connaissance de
bon sens nécessaire pour lui donner des niveaux d’intelligence humains111.
Bien qu’il semble y avoir un consensus croissant qu’une intelligence machine de
niveau humain sera atteinte, les opinions divergent grandement quant au moment de sa
réalisation éventuelle. Certains spéculent que cela pourrait se produire dès 2029112. Il est
probable que le développement de l’IA suivra les mêmes tendances que presque toutes
les autres technologies — elle progressera par étapes incrémentales, chacune bâtissant
sur les succès antérieurs. Cette méthodologie de développement par « rendements
accélérés » laisse prévoir qu’il n’y aura pas de développement catastrophique du jour au
lendemain qui prend l’humanité par surprise, malgré la popularité de ce thème à
Hollywood. Ce sera plutôt une série de choix délibérés faits en cours de route, chaque
étape incrémentale servant à aborder quelque besoin humain immédiat. Il existe déjà de
nombreux exemples historiques, tels que le décodage, le pilote automatique d’aéronefs,
les engins télépilotés ou les missiles de croisière à longue portée. Aujourd’hui, un effort
de recherche considérable, tant militaire que commercial, est consacré aux technologies
des engins terrestres télépilotés113.
À mesure que les capacités des systèmes IA s’améliorent, ceux-ci assumeront de
plus en plus de fonctions qui, traditionnellement, relèvent exclusivement de la
compétence des humains. Comme nous l’avons déjà dit, nos machines dépassent déjà
les humains dans l’exécution de plus en plus de tâches, par exemple, la gestion du
secteur électrique114 ou le guidage d’objets comme les missiles ou les satellites et
l’assemblage d’autres machines115. Il sera important, dans le cadre des efforts de
développement des capacités de l’Armée de terre, de demeurer conscient, et en effet,
d’être à l’avant-garde des développements en IA à mesure qu’ils continuent de
30
Publication no 1 de la collection JADEX
s’accélérer parallèlement aux autres domaines à croissance exponentielle tels que la
cybernétique, la mécatronique et la robotique.
On peut s’attendre à ce que, à un moment donné de l’avenir, l’IA de nature militaire
atteigne un seuil de capacité qui menace de franchir des frontières morales, éthiques
et/ou légales. Prenons comme exemple un système autonome qui est capable de
prendre des décisions de vie ou de mort dans des environnements chaotiques ou
dynamiques. Bien que l’approche standard d’aujourd’hui consiste à limiter ces
complications en veillant à ce qu’il y ait un chaînon humain dans la boucle de prise de
ces décisions, il se peut que cela ne soit pas une solution convenable à l’avenir. Il est
possible qu’il y ait des situations où les événements se produisent si vite que les temps
de réaction humains normaux seraient complètement inadéquats. Nous voyons déjà le
début de cette tendance. Par exemple, des contremesures automatisées comme le
blindage actif doivent s’exécuter en quelques millisecondes, bien avant que des
opérateurs humains soient capables de déceler une menace et d’y réagir.
Vu les progrès récents de l’IA et la probabilité qu’elle atteindra un niveau de
perfectionnement qui mettra au défi les capacités humaines dans une vaste gamme de
domaines, la prudence dicterait aux employés des organisations de développement des
capacités d’être conscients des ramifications morales, éthiques et légales des décisions
visant le développement lié à l’IA. Ce qui complique la situation c’est le fait que
l’automatisation est actuellement considérée comme un multiplicateur de la force de
combat. Il faudrait peut-être discuter de ces questions aujourd’hui afin de déterminer
quelles devraient être les frontières morales et éthiques pour les systèmes IA.
Cependant, comme le montre l’histoire, les frontières morales et éthiques continuent de
se déplacer à mesure que les sociétés changent et s’adaptent à de nouvelles
technologies.
Intimement liée au domaine de l’IA, la technologie des systèmes cybernétiques est
un autre domaine qui se développe rapidement en raison de la croissance exponentielle
de beaucoup des technologies habilitantes. La cybernétique porte sur l’intégration de la
mécanique, de l’électronique, de la bionique et de la robotique. Un exemple probant d’un
système cybernétique est une exosquelette116. Un exemple plus dramatique est le bras
bionique développé au Rehabilitation Institute of Chicago, au sein du Neural Engineering
Center for Artificial Limbs (NECAL). Ce bras fait appel à une procédure novatrice de
réinnervation musculaire qui consiste à prendre les nerfs d’un amputé et à les attacher
à un muscle en bonne santé117. Cette technique permet au sujet d’utiliser un bras
prothétique comme s’il s’agissait d’un membre réel — en pensant tout simplement à ce
qu’il veut que le bras fasse.
Mis à part les bénéfices évidents de la communauté des handicapés, cette
technologie en évolution rapide a du potentiel pour le développement de nouvelles
capacités telles que la téléprésence. Imaginez que vous seriez capable de commander
les fonctions d’un robot humanoïde118 en y pensant tout simplement. Puis, combinez un
robot humanoïde intelligent119 à une interface de réseau, et il devient faisable qu’un
opérateur soit capable de penser à ce que le robot téléopéré devrait faire — les fonctions
d’intelligence de ce dernier prenant la relève en cas de retard ou d’interruption du
réseau. Imaginez ensuite que la rétroaction du robot retourne directement à votre
cerveau120 produisant une sensation tactile121 ainsi que de l’information visuelle122 et
auditive123. Ces tendances laissent prévoir qu’il peut bientôt être possible d’être « sur les
lieux » sans jamais quitter la maison. Éventuellement, si l’information de rétroaction
sensorielle atteint une résolution suffisante, dans votre esprit, vous seriez effectivement
sur les lieux. Bien qu’il soit peu probable que ce niveau de capacité soit atteint dans le
délai visé par le présent document, il est probable que ce type de système cybernétique
sera un facteur à l’avenir — peut-être en tant que moyen d’atténuer les questions
Publication no 1 de la collection JADEX
31
morales et éthiques entourant la prise de décisions par un système d’IA mentionnée plus
haut.
La croissance exponentielle est également évidente dans le domaine de la
robotique, en raison de bien des mêmes tendances de croissance attribuables à la loi
de Moore. De nouveaux outils de développement tels que Robotics Studio124 de
Microsoft devraient servir à alimenter cette croissance. Certains chercheurs croient que
la robotique est sur le point de devenir la prochaine technologie de base majeure,
dépassant peut-être celle de l’informatique en importance125. Le département de la
Défense semble être du même avis : malgré les obstacles, en 2000, le Congrès
américain a ordonné que le tiers des véhicules terrestres et le tiers des aéronefs
d’attaque en profondeur des forces armées doivent devenir robotiques en moins de dix
ans. Les États-Unis ont déjà dépensé bien des milliards de dollars en robotique militaire
dans une tentative de répondre à ce mandat. Des percées technologiques ont sans
aucun doute été atteintes, bien que les résultats détaillés de ce programme ne soient
pas rendus publics.
Une étude de 2006 de la Defence Science and Technology Organization (DSTO)126
de l’Australie qui examinait les questions de génération de la connaissance de la
situation dans des systèmes autonomes a conclu qu’en termes stratégiques, vu les
précédents en développement des concepts et les goulots d’étranglement et les progrès
de la technologie, la robotique a passé le point d’être une nouvelle menace stratégique,
pour devenir une technologie qui élargit la menace au niveau opérationnel et tactique.
La caractéristique clé est la banalisation, permettant aux différents intervenants d’utiliser
une technologie anciennement spécialisée. L’espace de menace des systèmes
autonomes bâtit donc sur les progrès et la banalisation des technologies habilitantes,
comprenant notamment : mise en espace/orbite, réseaux de communication civils,
logiciels et matériel informatique.
De plus, le rapport de la DSTO aborde les mêmes débats moraux et éthiques que
ceux notés plus haut à l’égard des systèmes IA et indique que les options de l’utilisation
de robots seront définies par le contexte social (aversion à l’égard des pertes),
l’environnement attendu (forces expéditionnaires) et la rapidité des décisions (intensité
du combat). Les décisions seront également axées sur la question d’autonomie et de
connaissance de la situation — il ne s’agira pas de déterminer si un système « est »
autonome ou « possède » une connaissance de la situation, mais de déterminer si le
système a une connaissance suffisante pour être suffisamment autonome dans la
situation en cause. La revue historique du rapport décrivait des cas où des technologies
« ignares » avec une connaissance réduite de la situation avaient été déployées avec
une grande autonomie (mines terrestres, par exemple), alors que des technologies
« intelligentes » (le système de guerre aérienne Aegis par exemple) avec une grande
connaissance de la situation avaient été maintenues à une autonomie réduite à cause
des contraintes de la situation.
Les progrès des technologies habilitantes pointent vers des niveaux de plus en plus
élevés de connaissance de la situation et d’autonomie de la machine, qui exigeront une
considération prudente par les développeurs des capacités à l’égard des modes de
fonctionnement acceptables, compte tenu des attentes et contraintes de la société.
Bien qu’il y ait eu récemment une recrudescence de la technologie des robots
humanoïdes127, témoin les munitions « intelligentes », il est probable que les robots
continueront de prendre une variété de formes. En effet, les premiers robots
domestiques128 commerciaux ou les robots tactiques129 d’iRobot ne ressemblent pas à
notre illustration historique de science-fiction. Bien des robots futurs n’auront
probablement pas de forme définie, mais peuvent être un ensemble de composants qui
32
Publication no 1 de la collection JADEX
se reconfigurent en fonction de la tâche à effectuer. Le robot pourrait se composer d’une
série d’unités articulées qui peuvent se relier pour former des chaînes extensibles,
permettant à la structure de s’adapter au déplacement sur une grande variété de
terrains : en marchant, en rampant comme un serpent, en nageant comme un poisson
ou même en volant130. Ces dispositifs sont connus comme des robots autoreconfigurables ou polymorphes, et ils pourraient être bien adaptés à toute une gamme
de tâches dans des environnements inhospitaliers, telles que la neutralisation de
déchets toxiques ou les réparations d’engins spatiaux131.
Les robots reconfigurables ont émergé du domaine des robots en essaim : notion
selon laquelle une collection de nombreuses petites unités robotiques bon marché peut
agir comme une entité autonome. Les colonies de fourmis ont servi d’inspiration
biologique dans la mesure où elles présentent un genre d’ « intelligence d’essaim » qui
permet aux fourmis de butiner beaucoup plus efficacement comme collectivité
qu’individuellement. Chose importante, il n’y a pas de « centre de commande » qui dirige
les activités, le comportement collectif se manifestant spontanément, ce qui permet de
le rendre adaptif et efficace sans nécessiter de logiciel sophistiqué de prise de décision.
Une extension de cette idée consiste à réduire la taille des composants de façon qu’ils
deviennent des « atomes » autonomes qui peuvent être utilisés pour bâtir des structures
avec une vaste gamme de fonctions et de propriétés. Ces robots en essaim miniaturisés
ont été baptisés « poussière électronique communicante »132 et également
« claytronics »133. Les robots en essaim pourraient constituer un meilleur moyen de
surveiller les environnements éloignés sur la Terre et sur d’autres planètes que ne le fait
un seul dispositif complexe, ou ils peuvent, en effet, habiliter des réalités synthétiques
convaincantes. Non seulement les robots en essaim effectuent-ils une recherche plus
efficiente, mais aussi sont-ils plus résistants à la défaillance134.
D’autres robots inspirés par la biologie comprennent les insectes mécaniques qui,
d’après certains chercheurs, pourraient s’avérer beaucoup plus manœuvrables que les
versions miniaturisées d’avions ou d’hélicoptères classiques135. Ces dispositifs
ressemblant à des insectes pourraient voler à la dérobée à l’intérieur de bâtiments, en
passant par des fenêtres ouvertes, par exemple. Lorsqu’ils sont équipés de différents
types de capteurs, ils pourraient être utilisés comme des moniteurs de danger
miniaturisés. DARPA est en train de développer quatre « robobugs » volants qui pèsent
jusqu’à 10 grammes chacun et ont une envergure de jusqu’à 7,5 centimètres.
Aerovironment, une des entreprises qui développent les engins pour DARPA, vise à
produire un « prototype grossier » volant d’ici la mi-2008136. On s’attend à ce que ces
insectes robotiques deviennent rapidement bon marché et courants en raison de leur
taille et de leur poids (moins d’un dixième de gramme) et se vendent moins d’un dollar.
Une autre classe de robots encore est à l’étude. Elle fait appel à un réseau de
cultures de neurones animaux pour la commande des fonctions137. Les chercheurs ont
montré que le « cerveau » de culture devient plus complexe à mesure qu’il apprend et
interagit avec le monde externe au moyen des actions du robot. Ce cerveau est combiné
à de nouvelles formes de puissance robotique, telles que des muscles artificiels138 faits
de polymères électroactifs ou chimiquement actifs, et on peut s’attendre à ce qu’il y ait
des progrès considérables à l’égard de la mobilité, de la commande et de la conscience
de soi des robots. Par exemple, un robot en forme d’étoile développé par des
chercheurs de la Cornell University est capable de détecter des variations de
l’environnement et des dommages à son propre corps et d’y répondre, en raffinant en
continu les logiciels intégrés139.
Règle générale, les technologies robotiques atteignent la maturité à un rythme
accéléré, principalement en raison des tendances à la croissance exponentielle des
technologies habilitantes. De nouveaux engins aériens télépilotés (UAV) commerciaux
Publication no 1 de la collection JADEX
33
sont mis sur le marché à une fréquence croissante et avec des spécifications de
performance impressionnantes — atteignant environ 50 % de la vitesse, du rayon
d’action et de l’autonomie des UAV militaires beaucoup plus chers140. Chose plus
significative, certains modèles peuvent s’acheter en version entièrement autonome à
moins de 25 000 $. Grâce à une propulsion électrique silencieuse et à une caméra vidéo
embarquée, il est parfaitement faisable pour l’ennemi d’utiliser un tel système pour la
surveillance subreptice et la détection des objectifs à l’intérieur des camps de la
coalition. Perspective plus inquiétante, l’engin pourrait être utilisé comme missile de
croisière bon marché — peut-être pour répandre des agents biologiques. À mesure que
ces systèmes bon marché, mais efficaces, se multiplient, les concepts actuels qui
impliquent la supériorité de l’information ou se fient à cette supériorité risquent de plus
en plus d’être erronés. De plus, si l’on ne demeure pas à l’avant-garde de la technologie
commerciale, il est possible que l’information soit inférieure. Des groupes de criminels
et de terroristes continuent de générer des milliards de dollars par crime sur Internet —
de sorte qu’il devient plausible qu’ils soient en mesure d’acheter à leur gré des produits
commerciaux de la technologie de pointe, avec livraison le lendemain par UPS. On ne
saurait certainement pas en dire autant du système d’approvisionnement des FC.
Ce qui complique le problème des dispositifs robotiques commerciaux est un intérêt
croissant dans le piratage de leurs capacités 141. Il y a une liste croissante de sites
Internet qui offrent des idées de piratage ainsi que du code informatique142. Un robot
aspirateur Roomba, par exemple, coûte quelques centaines de dollars et contient des
circuits électroniques sophistiqués le rendant un candidat pour l’utilisation comme IED
entièrement autonome — capable d’identifier et d’attaquer les objectifs sans surveillance
humaine. Bien que nos troupes se confrontent aujourd’hui à des ennemis à technologie
assez rudimentaire, cela va probablement changer. Déjà, les tendances en Iraq et en
Afghanistan révèlent des capacités ingénieuses de l’adversaire à intégrer diverses
technologies commerciales à des dispositifs explosifs improvisés de plus en plus
sophistiqués. En effet, l’attaque du 11 septembre aux États-Unis était une combinaison
confectionnée de technologie rudimentaire (couteaux polyvalents) et de haute
technologie (aéronefs Boeing 767).
Vu l’ampleur des activités de recherche mondiales, il est raisonnable de s’attendre
à ce que d’ici 2025, les robots pourraient agir, penser et toucher comme des humains et
leur ressembler, à presque tous les égards143. Bien qu’il y ait encore beaucoup de
problèmes techniques à surmonter, on les surmonte un à un. La capacité des robots à
engager les humains sur le plan émotionnel porte les chercheurs à réfléchir sur
l’interaction entre l’humain et le robot, et à se demander si la relation devrait évoluer à
partir de la simple perspective de l’humain et de son outil ou d’une relation plus
complexe entre membres d’équipe. D’autres chercheurs affirment à titre de mise en
garde qu’il est peu probable que des machines auront la capacité d’inspirer un niveau
émotionnel de confiance — une qualité préalable pour une équipe144. D’autres
chercheurs encore croient que d’ici 2015, des véhicules robotiques seront utilisés sur le
champ de bataille pour des opérations en convoi ou dans des zones où il y a un danger
extrême pour le personnel. Un chercheur de la Stanford University, Sebastian Thrun,
s’attend à ce que, d’ici 2030, des véhicules robotiques auront une fiabilité de conduite
qui dépassera celle des humains de plusieurs ordres de grandeur. Nos adversaires
commenceront probablement à utiliser de plus en plus des systèmes autonomes : pas
besoin d’humain, mais le système est tout aussi létal que les attentats suicides.
Au sein de l’industrie automobile commerciale, on a des méthodologies de
conception bien établies qui faciliteront cette transition vers les véhicules robotiques. Par
exemple, les véhicules d’aujourd’hui comportent de plus en plus de composants et
systèmes électroniques et électromécaniques — allant des simples solénoïdes et
34
Publication no 1 de la collection JADEX
moteurs électriques aux microprocesseurs intégrés qui commandent le fonctionnement
des freins, de la direction et du moteur145. Ajoutez à cela un réseau bien développé de
capteurs et d’actionneurs à commande électronique pour presque chaque système du
véhicule, et il semblerait raisonnable de prévoir l’émergence de véhicules robotiques
commerciaux. Des systèmes microélectromécaniques (MEMS) qui sont des systèmes
autonomes miniaturisés (de l’ordre de la largeur d’un cheveu humain — à l’échelle
micrométrique) qui intègrent la fonctionnalité électrique et mécanique pour capter et
traiter l’information de leur environnement et y réagir, feront avancer encore les
technologies automobile et robotique. Les MEMS sont fabriqués par lots au moyen de
techniques semblables à celles utilisées dans l’industrie des circuits intégrés. La nature
autonome, miniaturisée des MEMS réduit le coût et augmente la fonctionnalité des
produits auxquels ils sont intégrés. Les MEMS auront un effet considérable sur le
développement de produits « intelligents » dans une vaste gamme d’industries, dont
l’aérospatiale, les soins de santé, l’automobile et les biens de consommation. Cette
intégration de l’électronique, de la mécanique, des logiciels et des commandes au sein
de l’industrie automobile est appelée « mécatronique », qui stimulera de toute évidence
la progression de la robotique.
D’après une récente étude menée par le Board on Army Science and Technology
des États-Unis, les robots, y compris les engins terrestres télépilotés (UGV), ont de
nombreuses caractéristiques précieuses qui aideront et complémenteront les soldats sur
le champ de bataille. Ils conviennent bien à l’exécution de tâches routinières et
fastidieuses. Ils ne connaissent ni crainte ni fatigue. Ils effectuent des tâches répétitives
rapidement et avec précision. Ils peuvent être conçus pour éviter les armements
ennemis ou y tenir et remplir des fonctions militaires particulières. La chose la plus
importante, c’est que les robots réduisent les pertes en augmentant l’efficacité des
soldats sur le champ de bataille146.
Par la suite, l’étude a évalué les technologies qui seraient nécessaires pour réaliser
divers degrés d’autonomie. Pour les systèmes les moins complexes, des technologies
au point existent déjà pour permettre leur mise en œuvre. Par contre, on ne s’attend pas
à ce que les technologies pour les systèmes les plus perfectionnés, tels que des
systèmes d’attaque autonomes, atteignent une maturité suffisante avant 2016 et plus
probablement pas avant 2025.
Il est probable que les mises en œuvre précoces d’UGV et d’UAV autonomes
viseront des tâches de cartographie en milieu urbain. Des ingénieurs de l’University of
California, à Berkeley, ont élaboré une technique, appelée « réalité virtualisée »
(virtualised reality) qui pourrait être utilisée pour cartographier des zones urbaines
inconnues, créant des cartes tridimensionnelles rue par rue, montrant chaque fenêtre et
ouverture de porte du champ de bataille urbain147. Cette technique automatisée fait appel
à des lasers pour mesurer les distances aux objets et aux façades des bâtiments, tandis
qu’un appareil photo numérique prend des photos 2D. Après une courte période de
traitement des données, le système crée de la zone un modèle 3D virtuel réaliste de
qualité photographique qui pourrait être utilisé aux fins de l’entraînement et de la
répétition de mission.
Des progrès considérables continuent d’être réalisés dans les domaines de la
modélisation 3D et de la réalité virtuelle. Ces technologies ont le potentiel de changer
radicalement les techniques d’entraînement militaires. Ainsi, certains chercheurs
avancent que, d’ici 2020, les environnements réels et virtuels deviendront à toute fin
pratique indistinguables. Déjà, des clones numériques de personnes ont été créés au
moyen de scanneurs 3D et de caméras à assez haute résolution pour capturer les pores
et les rides de la peau. En moins d’une minute, un système de scanneurs et de caméras
peut capturer suffisamment de données pour créer un double numérique 3D qui peut
Publication no 1 de la collection JADEX
35
être vieilli, bronzé ou illuminé de façon réaliste en fonction de presque n’importe quelle
situation148. La combinaison de ces modèles et personnages 3D virtuels réalistes au
moyen d’algorithmes IA sophistiqués dans des environnements vidéo à la première
personne fournira des environnements d’entraînement convaincants. L’ajout d’interfaces
à rétroaction haptique rehaussera encore l’expérience en introduisant un moyen de
produire de la fatigue. Des jeux vidéo existants combinent déjà nombre de ces
techniques pour créer des environnements très convaincants au moyen d’algorithmes
d’intelligence artificielle impressionnants qui confèrent aux soldats « numériques » amis
la capacité de suivre et parfois de mener, fournissant des tirs de protection et des
avertissements de la présence de tireurs embusqués et de grenades149.
Les tendances dans le secteur commercial rehausseront encore le développement
des environnements de réalité virtuelle. De nombreuses entreprises, dont Dell, IBM,
Toyota, Sony BMG, Telstra, ABC, Adidas et le détaillant américain American Apparel ont
acheté du territoire numérique à l’intérieur d’un des environnements virtuels principaux
d’aujourd’hui, Second Life150. Le nombre d’avatars virtuels dans ce monde virtuel
continue d’augmenter de façon exponentielle depuis son introduction en 2003. IBM vient
de recommander une intégration plus poussée parmi les divers mondes virtuels en ligne
où les avatars se rencontrent151. IBM tentera de permettre à un utilisateur d’un monde
virtuel donné de transférer les éléments créés dans ce monde à d’autres mondes, ce
que la direction d’IBM a décrit comme des « planètes virtuelles ». Ce concept ressemble
au monde virtuel immersif imaginé par Neal Stephenson dans son roman visionnaire «
Snow Crash ». En effet, le projet Metaverse Roadmap (MVR)152 décrit le métavers (métaunivers) comme le résultat de la convergence et du fusionnement de technologies
existantes en évolution : lorsque les jeux vidéo rencontrent le Web 2.0; lorsque des
mondes virtuels rencontrent des cartes géospatiales de la planète; lorsque les
simulations deviennent réelles, et la vie et les affaires deviennent virtuelles; lorsqu’on
utilise une Terre virtuelle pour naviguer la Terre matérielle; et lorsque votre avatar
devient votre agent en ligne.
À l’autre extrémité du même spectre technologique se trouve la « virtualité
incorporée », qui a été décrite comme le processus d’extraire les ordinateurs de leur
carcasse électronique, de les miniaturiser et de les incorporer dans tout : voitures,
bâtiments, appareils électroménagers et corps humains. Le résultat probable de cet
environnement informatique omniprésent est la capacité de créer une réalité
augmentée. Ces technologies en émergence permettent d’offrir à n’importe qui une
éducation et une formation immersives, peu importe le moment ou l’endroit. Les joueurs
à la réalité augmentée transforment déjà le monde réel en zones de combat virtuelles
au moyen de technologies existantes telles que des téléphones cellulaires avec
récepteur GPS et accès Internet153. Ces exemples révèlent le potentiel puissant d’une
force entièrement habilitée par réseau — c.-à-d. une force qui a des services de
communication, d’informatique et géodépendants.
Sur le plan commercial, une mise en œuvre précoce de l’informatique omniprésente
est déjà en cours dans la ville sud-coréenne de Songdo, qui est conçue pour devenir un
centre commercial international et la première « U-city » (caractérisée par l’ubiquité de
l’informatique)154. L’infrastructure de la ville permettra à tous les systèmes TI, qu’ils
appartiennent à des organismes gouvernementaux, à des corporations, à des services
de soins de santé ou à des particuliers, de partager des données. Chaque rue, chaque
maison et chaque bureau seront mis en réseau sans fil, ce qui fera la démonstration des
avantages (ou des inconvénients) d’un mode de vie numérique. Une technologie sousjacente sera un réseau de nouveaux services basés sur la RFID, qui seront introduits,
testés et mis au point avant d’être libérés pour envahir le reste du monde.
36
Publication no 1 de la collection JADEX
En nous penchant sur la biologie, nous voyons beaucoup des mêmes tendances
qui étaient évidentes dans le domaine des TIC. En effet, les TIC ont révolutionné l’étude
de la biologie : elle est essentiellement devenue une technologie d‘information, soumise
à la croissance exponentielle et aux rendements accélérés étudiés plus haut. D’après
l’inventeur de renom Ray Kurzweil, les technologies liées à la biologie continuent de
réduire de moitié le rapport prix-capacité chaque année155. À ce rythme, M. Kurzweil
prévoit que les biotechnologies connaîtront une augmentation de la capacité d’un facteur
de mille dans une décennie et d’un facteur de un milliard d’ici 2030.
L’envergure du développement de la biotechnologie a des implications profondes,
menant au potentiel de changer fondamentalement la vie sur Terre. Des signes du
pouvoir et du potentiel des biotechnologies sont évidents dans les étapes initiales de la
production d’un moustique résistant à la malaria, ce qui pourrait réduire la propagation
de la malaria156. Des développements liés à la biologie continueront probablement de
rencontrer une certaine résistance à cause des conséquences réelles ou perçues pour
la santé écologique et humaine dues à la modification génétique d’organismes157.
Malgré la résistance initiale, certains chercheurs prévoient une ère qui se rapproche
rapidement et où le piratage biologique deviendra monnaie courante, ce qui risque
d’amplifier les situations de danger biologique existantes de façon à les rendre
méconnaissables. Ce qui rend cette opinion plausible et inquiétante est le fait que le
développement de la biotechnologie et de la génétique connaît une croissance
exponentielle. On développe continuellement de nouvelles générations d’outils
sophistiqués158 - ce qui a pour résultat que les laboratoires de recherche mettent leur
équipement à niveau et vendent leur « ancien équipement » à rabais. N’importe qui peut
déterminer la disponibilité de cet équipement grâce à des sites Web de vente
d’équipement scientifique et d’instruments de laboratoire tels que LabX159. Bien que cet
équipement ne soit pas à la fine pointe de la technologie, il est remarquablement
sophistiqué comparativement à ce qui existait il y a 5 ans. Cet équipement à rabais est
plus qu’adéquat pour faire de la recherche et ainsi habiliter la multiplication des menaces
liées à la biologie.
Les bases de données et dépôts de renseignements à libre accès augmentent la
menace. Il demeure à déterminer si l’information scientifique devrait être publiée pour le
bien public ou si elle devrait être protégée parce que cette information et ces
connaissances représentent un pouvoir énorme — donc une menace si elles sont
utilisées comme arme. Cette information accélère la capacité des scientifiques à
combattre des maladies et à réaliser d’autres avancées médicales, mais les décideurs
doivent considérer le risque que l’information soit utilisée à des fins destructives dans
des actes de bioterrorisme ou de guerre.
Malgré cette tension entre le libre accès et les contraintes de sécurité, les politiques
actuelles permettent aux scientifiques et au public l’accès sans restrictions aux données
de génome sur les pathogènes microbiens. Le National Research Council Committee on
Genomics Databases for Bioterrorism Threat Agents des États-Unis a conclu dans son
rapport que le libre accès améliore notre capacité à combattre à la fois le bioterrorisme
et les maladies infectieuses naturelles, et que la sécurité vis-à-vis du bioterrorisme est
mieux servie par des politiques qui facilitent, et non qui limitent, le libre échange de cette
information160. Le rapport indique également que la base de données d’information
disponible est considérable, comprenant les génomes complets de centaines et de
centaines d’organismes, allant des virus aux humains en passant par les bactéries et
des séquences partielles de milliers et de milliers d’autres organismes. Des génomes
complets de plus de 100 pathogènes microbiens — y compris ceux de la variole, de la
fièvre charbonneuse (anthrax), de la fièvre hémorragique à virus Ebola, du botulisme et
de la peste — se trouvent déjà dans des bases de données accessibles à tous par
Publication no 1 de la collection JADEX
37
Internet, et les séquences de génomes de centaines d’autres pathogènes seront
déterminées à l’aide de fonds gouvernementaux au cours des quelques prochaines
années.
Ces risques soulignent que le rythme des progrès scientifiques crée un besoin
d’une évaluation continue et approfondie de la technologie scientifique dans la mesure
où elle influe sur la sécurité nationale et la santé et le bien-être de tous les habitants de
la planète161. Malgré le dilemme du double usage (pour ou contre le bioterrorisme), la
recherche biologique moderne est une entreprise internationale prospère avec un
énorme potentiel de bénéficier à la société. La synergie créée par la connaissance
croissante et le libre échange d’idées et d’information accélère les progrès de la
médecine, de l’industrie et de l’agriculture. Des détails émergeant sur l’interaction entre
les micro-organismes pathogènes et leurs hôtes permettront aux scientifiques de
continuer de développer et de produire de nouveaux vaccins améliorés, des drogues
anti-infection plus fortes et des outils de diagnostic plus précis162.
Le potentiel prometteur de la recherche biologique a été discuté lors d’une
conférence sur les changements accélérés tenue à la Stanford University en 2005.
Plusieurs membres bien estimés de la communauté scientifique ont décrit l’incidence
des technologies et recherches liées à la biologie sur notre compréhension de la vie et
de la mort. Certains chercheurs commencent à considérer le vieillissement comme une
maladie qui pourrait un jour être guérissable. Même si cela est un pas de trop, le résultat
inévitable du rythme élevé du développement de la biotechnologie sera une espérance
de vie humaine accrue et, à la longue, des populations vieillissantes dans les pays en
voie de développement. En effet, cette tendance est déjà évidente. D’après des
statistiques publiées par le Municipal Research and Services Centre of Washington, les
États-Unis sont au seuil d’une révolution de longévité163. D’ici 2030, le nombre
d’Américains âgés aura plus que doublé pour atteindre 70 millions, soit un sur cinq. Le
nombre et la proportion croissants d’adultes âgés impose des exigences accrues au
régime de santé publique et aux services médicaux et sociaux. Le Canada sera sans
aucun doute confronté à des pressions semblables qui changeront la société de façons
qui sont encore incertaines. Il risque d’y avoir des manques de ressources humaines à
l’avenir. En effet, il peut y avoir une réduction du bassin de recrues disponibles pour les
forces armées futures. Le Japon, par exemple, a déjà reconnu cette tendance au
vieillissement au sein de sa société et a fait d’énormes investissements en robotique
pour compenser la main-d’œuvre réduite qui sera disponible pour financer les soins du
nombre croissant d’aînés164. En outre, les populations vieillissantes auront une incidence
sur les budgets militaires futurs. Chaque année, les pensions de retraite militaires
deviennent de plus en plus coûteuses parce que les gens vivent plus vieux et que le coût
de la nouvelle technologie de soins de santé et des nouveaux médicaments nécessaires
pour garder les aînés en vie augmente. Les recrues qui entrent dans les forces armées
aujourd’hui, à l’âge de 18 ans, et qui prennent leur retraite à l’âge de 38 ans, recevront
en moyenne une pension de retraite pendant plus de 40 ans — recevant effectivement
des prestations de retraite deux fois plus longtemps qu’ils n’ont reçu leur paie de service
actif.
En plus des conséquences négatives possibles dues aux progrès dans les
domaines de la biotechnologie décrits ci-dessus, il y a des incidences prévisibles
également importantes sur la dimension humaine. Depuis le déverrouillage du génome
humain, la capacité de la communauté scientifique à manipuler le code de la vie a
augmenté énormément, menant à des découvertes qui, il n’y a que quelques années,
n’étaient possible qu’en science-fiction. Par exemple, on fait des progrès dans la
compréhension, mais chose plus importante, dans la manipulation de la base génétique
de la réaction de peur. Bien qu’il ne soit pas irraisonnable de penser qu’une telle
38
Publication no 1 de la collection JADEX
manipulation génétique ne peut être effectuée qu’en laboratoire, des avancées récentes
pointent vers le potentiel de manipuler la façon dont les gènes s’expriment en modifiant
les aliments que nous mangeons165. Malgré la résistance et les contraintes morales,
éthiques et légales qui sont évidentes, il y a de plus en plus d’évidence qui pointe vers
le potentiel d’un perfectionnement humain radical. Les domaines en voie de
développement de la nutrigénomique166 et de la nutrition personnalisée, par exemple,
laissent prévoir des produits qui sont adaptés exactement à la prévention de maladies
en fonction du matériel génétique d’un individu167.
Il est clair que ces capacités ont des implications de nature offensive et de nature
défensive pour l’Armée de terre de demain et de l’avenir. Par exemple, les FC
exploiteront-elles cette capacité pour rendre leurs soldats des guerriers vraiment
audacieux face à l’ennemi? Cela pourrait-il finir par atténuer les effets du stress posttraumatique? Bien que, pour le moment, cela puisse être trop radical pour les
démocraties occidentales, tel peut ne pas être le cas d’une cellule terroriste ou d’un
réseau criminel ayant les fonds nécessaires. Peut-être qu’en éliminant la peur, les
groupes terroristes pourraient « recruter » un nombre infini de candidats à l’attentat
suicide.
Il est probable que les capacités du genre science-fiction en voie de développement
au moyen du génie génétique deviendront de plus en plus déstabilisatrices au cours des
prochaines décennies. Les activités de développement des Forces doivent continuer de
tenir compte des développements et viser éventuellement des scénarios qui
comprennent ces capacités radicales si nous voulons effectivement nous préparer à la
défense et aux menaces relatives à la sécurité qui s’annoncent.
Ce qui complique cette situation c’est le domaine de recherche en évolution de la
biologie synthétique. La biologie synthétique peut se définir comme « la conception et la
construction de nouveaux parties, dispositifs et systèmes biologiques et le remaniement
de systèmes biologiques naturels existants à des fins utiles ». Ce domaine de recherche
verra indubitablement une augmentation dramatique des capacités tant que des
fournisseurs tels que Microsoft Research (MSR) continuent d’offrir des subventions pour
des projets de recherche visant à relever les défis informatiques de la biologie
synthétique168. D’après un article dans PLoS Biology, revue à libre accès avec comité de
lecture publiée par la Public Library of Science, les biologistes synthétiques visent à
transformer la biologie en une véritable discipline d’ingénierie, plutôt qu’à transférer
simplement un gène existant déjà d’une espèce à une autre169.
Les biologistes synthétiques tentent d’élaborer un réseau de parties biologiques
modulaires qui peuvent être facilement synthétisées et mélangées selon différentes
combinaisons, sensiblement de la même façon que les ingénieurs électriciens se
servent de condensateurs et de résistances, ou que les programmeurs se servent de
blocs modulaires de code informatique. Le Massachusetts Institute of Technology (MIT)
a déjà un registre de parties biologiques standard, ou BioBricks (ADN synthétique), qui
soutient cet objectif en indexant les parties biologiques qui ont été construites, et offre
des services d’assemblage pour construire des parties, dispositifs et systèmes
nouveaux170. Essentiellement, la biologie synthétique est une tentative de construire des
êtres vivants en commençant au niveau génétique. Des résultats remarquables et
parfois alarmants ont été atteints. Ainsi, un virus polio vivant a été créé à partir de zéro
au moyen de segments d’ADN obtenus par commande postale et d’une carte
génomique virale qui est largement disponible sur Internet171. Les experts s’inquiètent
que la biologie synthétique produise des bio-hackers (pirates biologiques). Un des
experts dans le domaine, le professeur en génétique George Church de la Harvard
University, a comparé l’usage abusif potentiel de modèles biologiques synthétiques au
danger posé par les armes nucléaires. Toutefois, d’après lui, il y a une différence
Publication no 1 de la collection JADEX
39
importante : il est beaucoup plus difficile de construire un dispositif à fusion que de
construire un pathogène au moyen du génie génétique. En outre, la complexité des
processus biologiques augmente le risque d’accidents172.
Nos efforts actuels de développement des capacités de l’Armée de terre provisoire
et de l’Armée de terre de demain, qui se fient dans une large mesure aux armes à
énergie cinétique, deviendront inutiles si des groupes d’insurgés réussissent à mettre en
valeur le plein potentiel déstabilisateur de la biologie synthétique. À mesure que cette
technologie atteint la maturité, il y aura probablement un besoin de réévaluer la
répartition des investissements parmi les fonctions opérationnelles — les capacités de
détection et de protection augmentant en importance. Il se peut que le lien capteur-tireur
de l’avenir, plutôt que de tirer une munition à énergie cinétique, doive produire un
antidote contre une entité biologique synthétique.
Mis à part le potentiel réel des biotechnologies à modifier fondamentalement et
éventuellement à améliorer radicalement la performance humaine au niveau génétique,
la compréhension croissante du fonctionnement du cerveau humain donne lieu à une
amélioration moins envahissante, mais néanmoins dramatique du potentiel de
performance humaine. Par exemple, la DARPA des États-Unis cherche à combiner
plusieurs technologies dans un système qui se branche littéralement sur le cortex
préfrontal du porteur pour avertir le soldat des menaces furtives détectées par le
subconscient du soldat173. Ce système intégrera des technologies qui sont disponibles
dans les laboratoires depuis des années, allant d’appareils optiques à grand champ plan
à l’utilisation d’électroencéphalogrammes évolués, pour reconnaître rapidement les
signatures d’onde cérébrale. Des développements commerciaux laissent prévoir que
cette capacité s’étendra bien au-delà du secteur de la défense. Par exemple,
NeuroSky174 de San Jose, en Californie, vient d’annoncer la mise au point d’un système
économique à biocapteur et processeur de signaux pour le marché de consommation.
Des chercheurs avancent maintenant que, d’ici 2015 ou 2020, on pourrait faire la
démonstration de la première interface neuronale physique entre un ordinateur et un
cerveau humain (remplissant probablement une fonction prosthétique)175. Il est prévu
que de telles interfaces établiront une connexion directe entre un cerveau humain ou
animal et le système nerveux d’une part et un ordinateur ou un réseau d’ordinateurs de
l’autre. Grâce à de telles interfaces, les humains seront capables d’interagir directement
avec des ordinateurs tout simplement en pensant. Comme nous l’avons déjà indiqué, la
mise en œuvre réussie d’une interface neuronale peut être réalisée par des chercheurs
travaillant à la perception humaine et à l’ingénierie prosthétique, aux intersections de la
médecine, de l’informatique, de la signalisation neuronale, de l’électronique et du
traitement des signaux. Toutefois, les progrès dans les domaines de la biologie
moléculaire, de la nanotechnologie et de la bionanotechnologie176 offrent de plus en plus
de résultats prometteurs pour la réalisation d’une interface neuronale.
Aujourd’hui, la nanotechnologie en est à un stade embryonnaire, semblable à la
condition de l’informatique aux années 1960 ou de la biotechnologie aux années 1980.
Cependant, elle évolue rapidement vers la maturité. D’après une étude de 2006, les
investissements dans la recherche en nanotechnologie par les gouvernements du
monde entier ont monté en flèche : de 432 millions $ en 1997 à environ 4,1 milliards $
en 2005, année pendant laquelle les investissements correspondants de l’industrie ont
dépassé ceux des gouvernements177. De l’information présentée plus récemment par
Luxresearch à la Nano and Giga Challenges in Electronics and Photonics de 2007
indique qu’en 2005, l’investissement total en nanotechnologie a atteint 9,6 milliards $178.
Luxresearch estime que le marché des produits basés sur la nanotechnologie atteindra
3,7 billions $ d’ici 2014.
40
Publication no 1 de la collection JADEX
Les nanomatériaux, un sous-ensemble du marché de la nanotechnologie, offrent
des occasions extraordinaires pour introduire une pléthore de nouveaux produits qui
pourraient revitaliser les marchés existants ou, en fait, résoudre des problèmes majeurs
de la société en fournissant une abondance d’eau potable et d’énergie bon marché179. À
court terme, la nanotechnologie donnera lieu à des matériaux qui seront plus légers et
plus résistants que les matériaux actuels et auront des propriétés différentes de ceux-ci.
Les contributions potentielles économiques et sociales des nanomatériaux ont amené
les organismes fédéraux américains participant au Nanoscale Science, Engineering,
and Technology Subcommittee (NSET) et des entreprises américaines de toute taille
oeuvrant dans le domaine de la chimie à engager des ressources considérables envers
la recherche et développement (R & D) en nanotechnologie180. La course à la recherche
et développement et à la commercialisation des nanomatériaux est d’envergure
mondiale. Les avancées en nanomatériaux laissent prévoir une révolution d’une vaste
gamme de domaines tels que les matériaux hautes performances, les revêtements, la
conversion et le stockage d’énergie, les capteurs, l’électronique, les produits
pharmaceutiques et le diagnostic.
D’autres gouvernements cherchent également à devenir des intervenants majeurs
dans le domaine de la nanotechnologie. Le gouvernement de Taïwan, par exemple,
envisage d’investir 20 milliards $ NT entre 2006 et 2010 dans les entreprises qui
appliquent la nanotechnologie à la vie quotidienne, dans l’attente que Taïwan devienne
un centre mondial de R & D en nanotechnologie181. À Taïwan, la nanotechnologie est une
de six industries S et T stratégiques axées sur la vie quotidienne. Les autres
comprennent l’électronique logicielle, la RFID (identification par radiofréquence), les
robots intelligents, les véhicules intelligents et les logements intelligents. Il est estimé
que, d’ici 2013, la valeur de fabrication des robots intelligents taïwanais atteindra 90
milliards $ NT et que celle de la RFID atteindra 70 milliards $ NT.
D’après un article dans la revue internationale de l’AFCEA, Signal Magazine, la
nanotechnologie a des implications militaires, économiques et de sécurité considérables
pour l’avenir182. Pour beaucoup, les capacités potentielles qui seront habilitées par la
nanotechnologie semblent encore être de la science-fiction. Cependant, des percées
quotidiennes dans presque tous les aspects de la nanotechnologie rapprochent ces
capacités de la réalité. La nanotechnologie peut ou non s’avérer une force
déstabilisatrice, mais il n’y a aucun doute que c’est un instrument d’habilitation que la
communauté de développement des capacités des FC ne peut pas se permettre de
laisser de côté ou de minimiser.
L’Armée de terre américaine, ayant reconnu l’importance et l’incidence potentielle
de la nanotechnologie sur les capacités futures a fourni 50 millions $ pour mettre sur
pied l’Institute for Soldier Nanotechnologies au sein du Massachusetts Institute of
Technology (MIT) à Cambridge afin de développer des technologies pour améliorer la
protection des combattants. Le directeur de du nouvel institut, M. E.L. Thomas, prédit
que, dans les 5 à 15 prochaines années, de nouvelles capacités telles que des
architectures de systèmes BattleSuit et des réseaux ultra légers à nanorelief, des
micropoutres auto-assemblées et des nanocomposites à motifs produits par UV seront
possibles.183 Alors que ces développements permettront le développement de nouveaux
uniformes, de meilleurs blindages et de capteurs améliorés, on s’attend à ce que, passé
2020, la nanotechnologie aura une incidence considérable sur tous types d’armement,
y compris les armes chimiques intelligentes — offrant une combinaison unique de létalité
et de précision. On s’attend à ce que, dans ce délai, la production des armes
conventionnelles et nucléaires bénéficie également de la nanotechnologie. Par exemple,
le potentiel de produire des armes nucléaires beaucoup plus rapidement avec un seuil
de détection beaucoup plus bas sera possible184. C’est pourquoi certains experts aux
Publication no 1 de la collection JADEX
41
États-Unis considèrent la supériorité en nanotechnologie comme une course
comparable à celle aux armes nucléaires, et peut-être même plus importante.
Un important domaine de recherche au MIT est constitué par les matériaux
mécaniquement actifs et les dispositifs à matériaux reconfigurables. Cette recherche
laisse prévoir la production de matériaux intelligents qui changent de forme lorsqu’ils
sont fléchis. Ces matériaux pourront servir de vêtements qui se transforment en blindage
ou en plâtre reconfigurable qui stabilise une blessure telle qu’une jambe cassée. Un
matériau de forme adaptable encore plus remarquable — la nanopoussière ou «
claytronics » — en est au stade initial de son développement à la Carnegie Mellon
University185. Le projet de claytronics a pour objectif de comprendre et de développer le
matériel et le logiciel nécessaires pour créer un matériau qui peut être programmé pour
former des formes dynamiques tridimensionnelles, qui peuvent interagir dans le monde
matériel et adopter visuellement une apparence arbitraire. La claytronics désigne un
ensemble de composants individuels, appelés catomes (atomes claytroniques). Chaque
catome comporte une CPU, une source d’énergie, un périphérique réseau, un dispositif
de sortie vidéo, un ou plusieurs capteurs, un moyen de locomotion et un mécanisme
pour adhérer à d’autres catomes. Si les catomes sont combinés avec succès au
scanneur numérique 3D mentionné plus haut, il pourrait être possible de recréer une
réplique de n’importe quoi ou de n’importe qui, lorsqu’il se trouve qu’il y a suffisamment
de catomes.
Une autre capacité du genre science-fiction, l’invisibilité, est déjà vue comme une
possibilité future, compte tenu de la recherche sur les nanomatériaux et plus
particulièrement sur les métamatériaux186. Plusieurs chercheurs ont déjà mis au point
des métamatériaux avec des propriétés remarquables. Par exemple, des chercheurs
canadiens ont réussi à créer des métamatériaux qui ont un indice de réfraction négatif
et sont capables de focaliser des ondes électromagnétiques avec une précision
inégalée187.
On s’attend à ce que, à l’intérieur du secteur de l’énergie, la nanotechnologie offre
des percées importantes. Tous les secteurs du marché de l’énergie devraient bénéficier
des nouvelles approches basées sur la nanotechnologie. Par exemple, les nouveaux
nanomatériaux devraient permettre la production de panneaux solaires bon marché et
de plus en plus efficients qui concurrenceront les sources de production d’électricité
classiques. De nouvelles bionanotechnologies offriront une amélioration considérable
dans la conversion de la biomasse en énergie et éventuellement dans la production
directe d’hydrogène. Même l’énergie éolienne bénéficiera des nanotechnologies,
lorsque des matériaux structuraux légers créés au moyen de nanotubes de carbone
sont intégrés à des éléments de turbines éoliennes.
Mis à part les applications susmentionnées, les chercheurs en nanotechnologie
imaginent des systèmes robotiques ultra miniaturisés et des dispositifs nanomécaniques
qui ont des applications en fabrication et dans les sciences de la vie. Ces domaines sont
aptes à se développer plus lentement que d’autres, car les préoccupations de sécurité
soulèveront des questions de politique. Ici, au Canada, l’Institut national de
nanotechnologie (INNT)188 jouera sans aucun doute un rôle clé dans l’établissement de
politiques nationales. Du point de vue de la défense, vu le potentiel déstabilisateur
considérable offert par les nouveaux développements en nanotechnologie, il sera
important que la communauté de défense demeure impliquée dans les décisions
relatives aux politiques, particulièrement à l’égard des questions de transfert de la
technologie commerciale.
La convergence de tous ces domaines de la technologie révolutionne nombre
d’entreprises dépendant des technologies existantes. L’accès à l’espace, par exemple,
42
Publication no 1 de la collection JADEX
est devenu une entreprise commerciale qui devient de plus en plus disponible au
public189. Vu le coût exorbitant actuel du tourisme spatial, malgré une demande
reconnue, Buzz Aldrin, le deuxième astronaute de la NASA à marcher sur la lune, vient
d’annoncer des plans de tenir une loterie de tourisme spatial. Cela enverrait le gagnant
dans l’espace dans une tentative d’étendre le rêve des voyages extraterrestres au-delà
des très riches190. En outre, Richard Branson de Virgin Galactic respecte l’échéancier
pour développer un engin à six passagers qui offrira cette décennie des voyages
touristiques spatiaux infraorbitaux191. Un des résultats de cet intérêt renouvelé dans
l’espace est une capacité croissante des individus à accéder à l’espace. Bien que le
tourisme spatial ne soit guère une menace pour la sécurité nationale, il y a un potentiel
que tout groupe ayant les ressources financières nécessaires obtienne accès à l’espace
au moyen du lancement commercial d’un microsatellite de surveillance par exemple. Il
semble qu’il y ait une nouvelle course à l’espace qui stimulera l’innovation renouvelée
des technologies spatiales. Un nombre croissant d’intervenants mondiaux envisagent
des initiatives spatiales majeures. La Russie et la Chine, par exemple, viennent
d’annoncer une mission conjointe à destination de Mars192. Il est possible qu’à l’avenir,
l’espace devienne un nouveau champ de bataille.
Changement sociétal induit par la technologie
Comme nous l’avons indiqué dans l’introduction du présent chapitre, la technologie
est un des principaux moteurs du changement sociétal. De plus, le rythme du
changement donne lieu à des perturbations de la société qui, dans bien des cas, se
manifestent dans des modifications réactionnaires des lois et des politiques. Par
exemple, des différends se produisent à la suite de l’utilisation ou du désir d’utilisation
de nouvelles technologies, lesquels commencent à se présenter devant les tribunaux
généralement avant que le public en soit conscient, donc avant que tout organisme élu
ait considéré les politiques publiques associées. Dans notre ère de blogues et d’autres
outils de réseautage tels que MySpace, qui offrent des plates-formes aux individus pour
critiquer ouvertement et à l’échelle mondiale des gouvernements et autres autorités, il y
aura probablement des tensions croissantes entre la liberté d’expression et la censure
de ces médias par l’État. Par conséquent, les tribunaux devront se prononcer sur des
situations qui, dans le contexte actuel nous semblent choquantes et immorales193, et ce
peut-être de plus en plus fréquemment et souvent avant qu’un environnement de
réglementation soit établi. Pour cette seule raison, des exercices axés sur l’avenir sont
d’une grande importance pratique. L’étude systématique de questions futures devrait
devenir une partie intégrante de toutes les activités de développement en tant que
moyen d’éviter d’être pris de surprise et d’avoir à prononcer des jugements précipités,
qui ont souvent des conséquences non voulues.
Le débat éthique en cours sur la recherche en cellules souches embryonnaires
humaines aux États-Unis est un exemple type de la perturbation de politique actuelle
induite par la technologie. Les promoteurs font valoir les grandes attentes de la
recherche en cellules souches pour la guérison du diabète juvénile, de la maladie de
Parkinson, du cancer, de blessures de la moelle épinière et de bien d’autres maladies et
conditions. En revanche, le prédisent américain George Bush, invoquant des
préoccupations quant aux implications morales, a indiqué qu’il opposerait son veto à la
loi nouvellement proposée194 qui relâche les restrictions sur l’utilisation des cellules
souches embryonnaires si elle progresse jusqu’au Congrès195.
Un développement également déstabilisant habilité par notre société branchée à
l’échelle mondiale est le pouvoir qu’Internet accorde aux individus et aux groupements
sociaux dans leur lutte contre la corruption196 ou même les politiques ou activités au
palier national. Par exemple, la US Navy vient d’être poursuivie en raison de son
Publication no 1 de la collection JADEX
43
utilisation de la technologie du sonar et des dommages environnementaux qu’elle
produit197. De plus, la désinformation, qui est facile à diffuser au moyen de nouveaux
outils du réseau social198 tels que YouTube, peut facilement donner lieu à des tensions
internationales. Par exemple, un utilisateur grec vient de verser un vidéo sur le site
YouTube portraiturant Mustafa Kemal Ataturk, fondateur de la Turquie moderne, et tous
les citoyens turcs comme des homosexuels, ce qui a amené le gouvernement de la
Turquie à interdire l’accès au site199.
Tous les secteurs de la société subiront une transformation à la suite de
l’introduction de nouvelles technologies. Le système juridique, par exemple, commence
à s’adapter à l’incidence de l’évidence de la neuro-imagerie et des neurosciences en
procédure pénale. Les promoteurs prévoient une incidence considérable non seulement
sur les questions de culpabilité et de punition, mais aussi sur la détection de mensonges
et de préjugés cachés et sur la prédiction de comportement criminel futur. Cependant,
les sceptiques craignent que l’utilisation de la technologie du balayage du cerveau en
tant que moyen de lecture de pensée menace la vie privée et la liberté mentale. Certains
ont avancé qu’un nouveau concept de liberté cognitive sera nécessaire pour atténuer
ces préoccupations200. La liberté génétique devient également un sujet de discussion
étant donné que les avancées en biotechnologie et en génétique permettent d’identifier
la prédisposition à des maladies particulières. Cela a amené la Chambre des
représentants américaine à adopter la Genetic Information Non-discrimination Act201, loi
qui interdit l’utilisation inappropriée d’information génétique aux fins des décisions
relatives à l’embauche et à l’assurance-maladie.
Les développements de la réalité virtuelle finiront par mener à des économies
virtuelles et à des parties croissantes de la société qui passent de plus en plus de temps
en ligne. Une capacité en émergence qui atteint rapidement sa maturité en raison de la
collectivité croissante en ligne et des outils d’automatisation est la capacité de créer des
mondes de plus en plus personnalisés autour de nous. Une conséquence plus
importante du nombre croissant de personnes en ligne est la production de
comportements stigmergiques202. Des outils tels que le courriel et les blogues, par
exemple, permettent à des personnes de collaborer, peu importe où elles se trouvent.
En outre, la stigmergie (collaboration décalée dans le temps) est possible, comme le
montre l’utilisation croissante d’outils wiki.
En revanche, la sécurité numérique deviendra de plus en plus un secteur
préoccupant à mesure que de plus en plus d’information personnelle et privée est
numérisée. Récemment, la Transportation Security Administration (TSA) des États-Unis
a découvert qu’un disque dur externe contenant des données sur les employés (y
compris le nom, le numéro d’assurance sociale, la date de naissance et de l’information
de liste de paye, d’affectation de fonds, de compte bancaire et d’acheminement) avait
disparu d’une zone contrôlée du Headquarters Office of Human Capital203. Les
implications pour les établissements sont importantes. En plus d’avoir des implications
relatives à la sécurité, le manque à protéger l’information numérique pourrait mener à
des pertes financières. Ainsi, la TSA a eu à accorder une année de surveillance de crédit
gratuite et une assurance de vol d’identité de jusqu’à 25 000 $ pour aider les employés
au cas où ils seraient victimes d’un vol d’identité. Les systèmes militaires ne seront pas
immuns à ces mêmes risques et défis.
Un autre aspect qui continuera de mettre au défi les sociétés est la facilité avec
laquelle les données numériques peuvent être copiées, partagées et manipulées. Avant
l’avènement des appareils photo numériques et des logiciels de manipulation d’image
avancée tels que Photoshop ou la solution de rechange gratuite GIMP, les retouches des
images en chambre noire exigeaient un effort concentré, de la compétence et beaucoup
de temps. Aujourd’hui, la manipulation des images et des vidéos est possible au moyen
44
Publication no 1 de la collection JADEX
de quelques coups de touche ou de clics sur la souris et est disponible pour presque tout
le monde. Ces capacités peu coûteuses, combinées à la diffusion quasi instantanée à
l’échelle mondiale sur Internet offrent des occasions de désinformation, de déception et
de fraude — intentionnelles ou autres. La capacité d’accéder à cette information via le
Web, compliquée par les courriels venant de collègues, augmentera le besoin de
diligence raisonnable dans la vérification des sources. Il deviendra impossible de croire
tout ce qu’on voit, entend ou lit dans les médias populaires ou en ligne, à moins que ce
ne soit confirmé par de nombreuses sources uniques, distinctes et de confiance.
Malheureusement, il devient beaucoup trop facile pour les sources légitimes de copier
du contenu (exact, trompeur ou tout simplement erroné) dans un instant dans notre
monde branché sur le Web. Même les revues scientifiques ne sont pas à l’abri de la
tromperie à mesure que le mot d’ordre de plus en plus répandu de « publiez ou
périssez » oblige les programmes se dirigeant vers l’échec de prendre des mesures
draconiennes204. Les journaux Web ou blogues ne servent qu’à aggraver la situation à
mesure que les non-initiés pontifient sur des choses qu’ils ont entendues, vues ou
apprises d’une autre manière dans les médias populaires ou dans un autre blogue.
Malgré les aspects négatifs de la manipulation inappropriée des données et de
l’information indiquée ci-dessus, la collaboration sociale en réseau au moyen d’outils tels
que des wikis demeure une capacité puissante et bénéfique qui continuera fort
probablement de croître en popularité et en importance. Bien des grandes organisations
gouvernementales tenteront probablement de bénéficier de ce phénomène social. La
NASA, par exemple, a déjà annoncé un projet à source libre appelé CosmosCode, qui
vise à recruter des volontaires pour écrire du code pour les missions spatiales futures205.
Chose intéressante, les participants peuvent rencontrer les autres membres de la
communauté des volontaires aux réunions hebdomadaires le mardi de CosmosCode qui
ont lieu dans le monde virtuel de Second Life — le tout, sans quitter leur maison ou
bureau206. Ce niveau d’ouverture et de transparence à l’intérieur d’un environnement de
défense se confrontera probablement à des contraintes de sécurité. Cependant, il n’y a
aucune raison pour laquelle des outils de collaboration sociale ne pourraient pas être
mis en œuvre pour bénéficier de la sagesse collective des membres actifs des FC. Le
manque à mettre en œuvre de tels outils pourrait donner lieu à la déstabilisation de la
sécurité, car la collaboration massive du secteur privé risque d’être plus concurrentielle
que les bureaucraties des établissements classiques207. Le pouvoir potentiel de la
collaboration sociale a été démontré récemment, lorsqu’un élève âgé de 15 ans d’une
école secondaire a créé un dispositif de fusion sophistiqué avec un peu d’aide de
collaboration en ligne208. La reconnaissance du pouvoir fourni par la collaboration en
réseau a amené certaines corporations à élaborer des applications qui permettent «
l’approvisionnement par la foule »209. En outre, Internet est même devenu le nouveau
champ de bataille politique210 de la prochaine élection présidentielle américaine211.
La collaboration en réseau est loin d’être un phénomène nouveau. Cependant, elle
prend de l’essor à mesure que les applications du prétendu Web 2.0 se multiplient. Ces
applications commencent avec très peu d’information, mais elles fournissent des outils
d’utilisation facile qui encouragent les utilisateurs à contribuer du matériel et à
augmenter le contenu. Avec le temps, une application du Web 2.0 évolue, les utilisateurs
devenant essentiellement les administrateurs et établissant ainsi un site autoorganisateur. Une étude Booz Allen Hamilton de 2006 a révélé que l’utilisation de sites
de réseautage social, de wikis et d’autres technologies du Web 2.0 est un phénomène
de masse croissant. L’étude a conclu que le réseautage social était un phénomène
massif applicable à tous les utilisateurs, indépendamment de l’âge, de la classe sociale,
du sexe ou de l’éducation. En outre, le sondage a révélé que plus de la moitié de tous
les utilisateurs d’Internet se fient déjà aux conseils d’une communauté mondiale
Publication no 1 de la collection JADEX
45
d’utilisateurs, indiquant une acceptation à grande échelle de nouvelles façons de former
des opinions et de prendre des décisions d’achat. Les préoccupations de la vie privée
ont également diminué : 70 % des utilisateurs de MySpace au R.-U. créent leur propre
contenu à partager, mais seulement 39 % limitent l’accès à leur matériel destiné à euxmêmes ou à leurs connaissances212.
Bien qu’il y ait peut-être une certaine résistance à mettre en œuvre des initiatives
de collaboration libre, il peut s’avérer nécessaire que les organisations
gouvernementales accordent le libre accès à leur recherche financée par les deniers
publics. Plusieurs organisations, telles que l’Alliance for Taxpayer Access, cherchent
activement à obtenir cet accès, revendiquant que les fonds publics devraient donner lieu
à des bénéfices publics213. Dans une certaine mesure, la communauté scientifique a
déjà commencé à assurer le libre accès à son information — au moins aux autres
professionnels scientifiques au moyen du wiki pour professionnels. Ce wiki est décrit
comme un espace de travail sur le Web sémantique qui permettra l’échange et
l’exploration des connaissances en temps réel par la combinaison de l’information dans
des bases de données avec la littérature de façon que le tout semble être une seule
base de données du point de vue de l’utilisateur214. Le libre accès à toute cette
information, combiné à l’ajout de logiciel de fouille de texte permettra aux utilisateurs
d’explorer des liaisons à l’intérieur des données, ce qui facilite une analyse détaillée. La
libération de l’information de cette façon habilitera les individus tout en réduisant le
monopole de l’information que détenaient les gouvernements par le passé. En effet, il
peut s’avérer nécessaire que les organisations fournissent des outils de réseautage
social à leur personnel. Le manque à le faire pourra de plus en plus être perçu par le
personnel interne comme une tentative de censurer leurs activités. Dans une certaine
mesure, cette situation se produit dans les forces américaines, car l’accès aux outils de
réseautage social a été limité à cause de préoccupations liées à la largeur de bande et
à la sécurité215.
Alors que les préoccupations relatives à la largeur de bande et à la sécurité peuvent
être des préoccupations légitimes dans un contexte militaire qui exige des restrictions,
celles-ci peuvent devenir de plus en plus intolérables pour les individus qui s’attendent
à avoir accès à la collaboration sociale et à des outils de communication. La réaction
récente des utilisateurs du portail de nouvelles sociales Digg.com à une autorité perçue
intimidante peut devenir plus courante à l’avenir. Récemment, les utilisateurs de
Digg.com ont affiché sur le Web des liens avec un code qui permet aux développeurs
de logiciels de copier du contenu chiffré de disques DVD HD. Les créateurs du code,
Advanced Access Content Systems, ont exigé que les administrateurs de Digg.com
suppriment ces liens. Bien que les administrateurs aient acquiescé à la demande, les
utilisateurs du site se sont révoltés216. Le site Digg fut inondé de milliers de liens avec le
code et d’énoncés invoquant la liberté d’expression. Paradoxalement, des millions ont
maintenant vu le code du DVD HD, et une recherche Google des quelques premiers
chiffres du code donne des liens avec plus de 1,6 million de copies du code complet.
Cette révolte sociale a obligé les administrateurs du site Digg à abandonner leurs
tentatives de supprimer les liens et à élaborer une position juridique en vue d’une
poursuite inévitable par les créateurs du code. À l’avenir, toute tentative par les autorités
visant à empêcher la communication parmi les utilisateurs dans ces environnements de
collaboration du Web 2.0 en émergence peut paradoxalement mener à une diffusion
plus poussée de l’information qu’elles essayaient de limiter. Ce phénomène commence
à être connu sous le nom de « marketing viral »217, qui peut de toute évidence avoir des
bénéfices publicitaires, mais également des conséquences négatives s’il s’agit de
protéger des renseignements de nature délicate. Cependant, il y a des occasions
croissantes d’explorer les données de ces connexions florissantes. Par exemple, des
46
Publication no 1 de la collection JADEX
organismes du renseignement cherchent à suivre des groupes d’insurgés au moyen
d’outils de mappage de réseau social218. Bien que cela donne lieu à des questions de
protection de la vie privée, il est probable que la commodité fournie par le réseautage
social l’emportera sur ces préoccupations. Toutefois, vu la prolifération des téléphones
photo et des visiophones, il se peut que la plus grande menace future à la vie privée ne
soit pas le gouvernement, mais plutôt votre voisin immédiat. Les implications potentielles
pour la perturbation sociale semblent être graves219.
La prolifération de ces plates-formes de réseau de collaboration sociale libre
permettra donc aux petits de devenir puissants. L’accès à la collection croissante
d’information exhaustive et permettant la recherche sur le Web peut également changer
la façon dont la société définit l’intelligence. Alors que, par le passé, l’intelligence était
principalement déterminée par la quantité d’information qu’une personne pouvait
mémoriser, à l’avenir, il se peut que l’intelligence soit mesurée par la capacité de
localiser rapidement, d’organiser et de comprendre l’information extraite de sources
d’information mondiales telles qu’Internet. Par conséquent, une personne qui a des
connaissances très limitées d’un sujet donné, mais qui sait trouver rapidement et
organiser l’information pertinente sur ce sujet sera beaucoup plus productive que
quelqu’un qui n’est pas familiarisé avec les technologies de recherche et d’extraction
d’information, quelle que soit sa capacité mentale. Cette compétence deviendra de plus
en plus importante, à mesure que les sociétés deviennent plus complexes et que l’accès
à la toile mondiale d’information devient disponible 24 h sur 24, 7 j sur 7 à partir de
n’importe quel emplacement grâce à la couverture généralisée des téléphones
cellulaires et des applications de logiciel social mobile (MoSoSo)220.
Les applications MoSoSo commerciales offrent l’équivalent civil du suivi de la force
bleue, de la connaissance de la situation et du commandement en déplacement. Il est
probable que ces capacités d’opérations habilitées par réseau civil augmenteront en
perfection et en puissance, concurrençant tout ce qui pourra être mis en œuvre par les
grandes armées institutionnelles à cause de leurs bureaucraties. Cette condition
d’informatique disponible en continu fera assurément en sorte que les sociétés se
transforment dans des directions inattendues, à mesure que les gens trouvent des
façons novatrices de mettre ces technologies commerciales et à source libre en œuvre
dans leurs vies sociales. Dans un avenir rapproché, le matériel et le logiciel sous-jacents
qui habilitent ce réseautage social mobile omniprésent221 deviendront tellement discrets
et courants qu’ils deviendront une partie intégrante de la structure sociale et cesseront
d’être considérés comme de la haute technologie. À ce stade, le fait d’être débranché
du réseau deviendra un événement traumatique. Bien qu’on soit encore à quelques
années de cette situation, tandis que certains peuvent avancer qu’elle existe déjà pour
bien des personnes, la communauté de développement des capacités de l’Armée doit
être consciente de cette question et de son incidence sur les ressources humaines. Les
recrues potentielles de l’an 2021, qui est l’année prévue pour la capacité opérationnelle
totale de l’ATdD, ont aujourd’hui de quatre à huit ans. Ils auront indubitablement des
attentes bien développées quant à la disponibilité de la collaboration sociale continue
habilitée par un réseau omniprésent. Par conséquent, le développement des capacités
devra pouvoir satisfaire cette attente. De plus, la capacité de pouvoir évoluer dans cet
environnement sera une caractéristique fortement recherchée parmi les recrues puisque
le concept des OAD de l’ATdD envisage un environnement réseauté omniprésent.
Cependant, l’établissement du juste équilibre entre les exigences de sécurité et les
exigences de disponibilité continuera probablement d’être un défi pour la mise en œuvre
des systèmes militaires. Un logiciel espion mobile, par exemple, appelé
SymbOS/Flexispy.B, est capable d’activer à distance le microphone monté sur un
Publication no 1 de la collection JADEX
47
dispositif mobile, permettant l’écoute clandestine222. D’autres logiciels permettent
d’activer des caméras.
Bien que les nations développées soient à la tête du développement de l’accès
omniprésent aux réseaux, l’importance et la prolifération des réseaux dans les pays en
voie de développement ne sauraient être sous-estimées. Par exemple, le projet « United
Villages » fait appel à des autocars et motocyclettes équipés de Wi-Fi pour livrer le
contenu du Web aux villages éloignés du monde en voie de développement223. En Inde
rurale et dans des parties de la Rwanda, du Cambodge et du Paraguay, des véhicules
offrent le contenu du Web à des ordinateurs sans accès Internet. Déjà, des parties
importantes du monde développé cherchent à rendre l’accès au réseau obligatoire. Par
exemple, les 25 États membres de la Commission européenne et neuf pays en phase
d’adhésion ont souscrit à un plan qui pourrait rendre l’accessibilité en
approvisionnement électronique obligatoire224.
Changement de la technologie militaire
Les changements aux sociétés mondiales en raison de la prolifération des réseaux
dans le secteur commercial influencent également l’interface entre la société
canadienne et les forces armées. Les communications entre le personnel déployé et
leurs familles, et la société en général, ont été améliorées considérablement grâce à
des initiatives telles que le site DNDTALK225, qui est préconisé comme un endroit où les
membres de la famille peuvent afficher des messages pour le personnel déployé. Ce site
a des capacités de blogue et offrira bientôt des outils de baladodiffusion qui permettront
de verser des messages audio en format MP3.
Le blogage militaire est une tendance en pleine croissance. Le site
Milblogging.com, par exemple, offre un index mondial de blogues militaires. Le site suit
également les milblogs (blogues militaires) par pays. Les États-Unis et l’Iraq mènent la
liste de pays ayant des milblogs, avec 1123 et 386 sites respectivement. Le site
comprend 18 milblogs226 pour le Canada. Un des exemples, le blogue des Forces
canadiennes227, sert de site de recrutement de réservistes. D’autres offrent des outils de
blogage pour les familles des militaires228. Bien que ces sites offrent énormément de
soutien aux familles et peuvent remonter le moral des troupes, ils ne sont pas sans
enjeu. La fourniture d’accès à ces services et à d’autres pour les troupes déployées
exige une largeur de bande de communication considérable. Les impératifs
opérationnels exigent évidemment que la largeur de bande disponible soit accordée en
priorité à l’utilisation pour les missions. Par conséquent, une largeur de bande d’appui
extérieur insuffisante risque de démoraliser les troupes à l’avenir, à mesure que de plus
en plus d’individus s’habituent à être en contact constant — souvent en temps réel.
Alors que le développement continu et l’expansion d’Internet caractérisent et
définissent l’âge de l’information du 21e siècle, du point de vue de la capacité militaire,
les outils de base de la guerre demeurent remarquablement semblables à leurs
prédécesseurs de l’âge industriel — chars, camions, systèmes de tir direct et missiles,
par exemple. Bien que l’intégration de la technologie d’information du 21e siècle aux
systèmes des véhicules soit notable, les caractéristiques de performance matérielle de
base ne sont que légèrement supérieures à celles de leurs prédécesseurs de l’époque
de la guerre froide. Les systèmes de propulsion et autres éléments mécaniques qui
définissent les caractéristiques de performance matérielle progressent à des rythmes
beaucoup plus lents que la technologie de l’information ou ses applications. Par
conséquent, ce sera principalement dans le domaine de la technologie de l’information
que les améliorations exponentielles de vitesse de calcul, de simulation, de
connaissance de la situation, de l’acquisition des objectifs, de la surveillance et de la
précision serviront à augmenter l’efficacité des véhicules.
48
Publication no 1 de la collection JADEX
Les TIC de réseautage avancées sont de plus en plus utilisées pour prolonger la vie
utile des systèmes existants en permettant de les utiliser de façons nouvelles et
novatrices — y compris la dispersion avec une meilleure connaissance de la situation et
un potentiel supérieur d’engagement coopératif. Les TIC nouvellement intégrées
fournissent également de meilleures capacités d’engagement. Par exemple, les
nouveaux systèmes de conduite du tir axés sur les TIC comprenant des ordinateurs, des
capteurs et des logiciels peuvent compenser une protection insuffisante par le blindage
au moyen d’une probabilité améliorée d’atteinte/destruction au premier coup. En outre,
à mesure que les véhicules robotiques entrent en service d’ici 2021, ils pourraient attirer
le feu ou détecter les objectifs permettant aux systèmes existants d’engager les objectifs
et de dominer même s’ils ne possèdent pas de puissance de feu ou de blindage
supérieurs. La recherche en matériaux nouveaux peut offrir des occasions de prolonger
la durée de vie du châssis principal des plates-formes d’armes majeures; toutefois, il
serait irraisonnable de s’attendre à ce que les éléments de TIC intégrés aient une durée
de vie supérieure à plusieurs années. Ce n’est pas qu’ils tomberaient en panne, mais
plutôt qu’ils deviendraient obsolètes en raison du rythme exponentiel du développement
des technologies. Cette situation exige un chemin de mise à niveau de modules prêts à
l’emploi qui permette l’intégration facile de nouvelles TIC aux systèmes existants sans
rattrapage majeur.
De la technologie est en cours d’être mise en valeur pour atteindre le plein avantage
stratégique et tactique d’une force mobile, agile et souple. Cela a amené de nombreuses
armées à concentrer une bonne partie de leur effort de développement sur des parcs de
véhicules blindés plus légers qui constituent une force de combat crédible et efficace.
Alors que l’expérience récente dans l’environnement opérationnel contemporain a
souligné la réorientation vers un plus grand accent sur la protection à l’égard de la
puissance de feu, de la mobilité, du triangle de protection et du besoin de niveaux de
blindage lourd pour contrer la menace des IED, les avancées de la conception et de la
fabrication du matériel et de la technologie de l’information seront mises en valeur pour
améliorer la protection des forces à matériel léger. À cet égard, la surviabilité comprend
toutes les couches successives de protection, y compris la mobilité et la furtivité, la
réduction des signatures, la suite d’aides de défense (SAD) de neutralisation en
douceur, la SAD de destruction, le blindage amélioré et les systèmes de suppression
d’éclats.
D’après un rapport de 2004 rédigé par le Center for Strategic and Budgetary
Assessments, une révolution de la conduite de la guerre est en cours depuis près de
trois décennies229. Pendant cette période, les alliés occidentaux ont cherché à
compenser la supériorité numérique des forces du Pacte de Varsovie en tentant de
développer des avantages technologiques asymétriques. Malgré la fin de la guerre
froide, les auteurs du rapport avancent que la révolution résultant de ces initiatives
continue et peut être caractérisée par : l’émergence de la guerre de précision tout temps;
l’avènement de la furtivité; l’augmentation de systèmes télépilotés; l’exploitation tactique
et opérationnelle de l’espace; et l’émergence de formes initiales de conduite de la guerre
axée sur réseau et d’intégration des forces interarmées. Les auteurs avancent
également que le rythme des changements des capacités militaires est apte à
augmenter considérablement au cours des prochaines décennies. Les capacités
d’atteinte avec précision continueront d’augmenter à l’égard de la portée, de l’échelle et
du degré de sophistication. Des formes plus avancées de furtivité sont en cours de
développement. Les capteurs et les réseaux de combat continueront d’augmenter en
capacité et sophistication. Les systèmes télépilotés deviendront un élément de plus en
plus important des structures de la force. Il n’est pas clair, toutefois, si une masse
Publication no 1 de la collection JADEX
49
critique de ces capacités passera à des concurrents potentiels ou si les États-Unis
demeureront la puissance technologique militaire dominante.
Toutefois, l’utilité continue des systèmes existants bien au-delà de l’année 2010 a
été remise en question. Les analystes de défense Michael Vickers et Robert Martinage
maintiennent que la puissance des munitions intelligentes (qui peuvent être tirées à
distance ou à l’épaule) l’emporte sur la protection assurée par la vitesse et le blindage230.
De même, George et Meredith Friedman maintiennent que les plates-formes d’armes
classiques telles que les chars auront du mal à survivre dans un monde de munitions
guidées avec précision231. La crainte en cause est confirmée par les tendances dans la
communauté de R & D en blindage de protection, qui étudie le blindage réactif par
explosion comme moyen potentiel de neutraliser les munitions intelligentes.
De plus en plus de technologies commerciales deviennent disponibles à des coûts
beaucoup plus réduits et ont souvent une meilleure fonctionnalité opérationnelle que
ceux des équivalents militarisés utilisés en campagne. Bien que ces systèmes
commerciaux soient parfois démunis de caractéristiques de sécurité, celles-ci sont
achetées par les troupes avant qu’elles se déploient au théâtre. Par exemple, la mise à
jour CFLO ARDEC de févr. /mars 2007 signalait que les unités et/ou soldats américains
achetaient des produits GPS Garmin commerciaux pour utilisation dans le théâtre. Cela
garantissait qu’au moins une personne par patrouille et parfois tout le monde avait la
capacité GPS. Cette situation persistera probablement, car les innovations
commerciales offrent des capacités supérieures plus fréquemment que ne le permettent
les programmes d’approvisionnement militaires. Chose plus importante, les dispositifs
de navigation plus modernes sont devenus des articles bon marché que n’importe qui,
y compris l’ennemi, peut obtenir. Ces dispositifs personnels compacts sophistiqués
offrent des fonctions avancées, y compris la navigation point à point avec des directions
virage-à-virage, le tout affiché sur un écran cartographique tactile de trois à quatre
pouces et fourni avec des instructions vocales232. Ces systèmes commerciaux sont
conçus pour être portatifs et résistants avec une autonomie prolongée. Ils pourraient
même être intégrés à une variété de produits commerciaux courants permettant la
création d’armes de précision bon marché. S’ils sont en plus combinés à des
technologies de communication commerciales, ils offrent des capacités de
connaissance de la situation rivalisant celles disponibles pour les systèmes militaires
déployés à l’heure actuelle. Bien qu’il connaisse des défis de financement, le système
de navigation par satellite commercial de l’Union européenne, Galileo, augmentera la
robustesse des offres de navigation commerciale. De plus, Galileo offrira des avantages
par rapport à ses contreparties militaires contemporaines (le système de positionnement
global (GPS) des États-Unis et le système soviétique GLONASS); il devrait fournir une
amélioration considérable des performances compte tenu de ce qu’on a appris de trente
ans d’expérience en technologie GPS.
La Chine aussi cherche à entrer dans le secteur de la navigation par satellite. Le 14
avril 2007, la Chine a lancé le satellite de navigation COMPASS, qui suit un lancement
le 3 février 2007, le quatrième depuis 2000. La Chine planifierait d’assurer la couverture
nationale et la couverture de certains des pays voisins en 2008233. On s’attend à ce que
cela soit élargi pour devenir une couverture mondiale.
L’innovation commerciale fournit au public d’autres capacités avancées qui jusquelà n’étaient disponibles qu’aux forces armées avancées. Ainsi, l’entreprise ImageSat
International appartenant à Israël offre à ses abonnés la possibilité de se servir de son
satellite d’imagerie EROS-A et de télécharger en aval les données de ce dernier dans le
plus grand secret avec peu de restrictions si restriction il y a234. Ce service fournit
essentiellement aux abonnés leur propre satellite de reconnaissance, mais à une
fraction du coût. À l’heure actuelle, les applications Google Earth235 et Map largement
50
Publication no 1 de la collection JADEX
disponibles fournissent à quiconque a une connexion Internet et un ordinateur
contemporain des puissants outils géographiques gratuits et la couverture
cartographique mondiale par satellite. L’industrie des satellites privés devient si avancée
et omniprésente que de nombreuses forces armées avancées, y compris les forces
armées américaines, s’y fient maintenant pour satisfaire une partie de ses besoins en
imagerie et une bonne partie de ses besoins en communications.
Une autre réorientation dramatique vers l’innovation commerciale est apparente
dans le secteur de la robotique. Dans une interview récente dans le FastCompany
Magazine, Rodney Brooks, directeur d’un laboratoire d’informatique et d’intelligence
artificielle américain de grande envergure, indiquait que, il y a dix ans, 90 % du
financement de son groupe provenait du Département de la défense, alors que ce chiffre
est maintenant de moins de 25 %236. Par conséquent, la robotique sophistiquée se
multipliera dans le secteur commercial, et non seulement dans le domaine militaire.
La convergence de toutes ces tendances pourrait mener à de nouvelles formes de
guerre à l’intérieur des dimensions de l’espace, de l’information et de la biologie. La
conduite de la guerre terrestre pourrait passer d’un régime dominé par des forces
mobiles, interarmes et blindées à une force dominée par des forces beaucoup plus
légères, furtives et à forte composante d’information et de robotique. L’augmentation de
l’utilisation commerciale et militaire de l’espace pourrait donner lieu à l’émergence d’une
vaste gamme de capacités de contrôle offensives et défensives de l’espace. Des outils
d’attaque de réseaux informatiques et des armes à radiofréquence pourraient être
utilisés à grande échelle pour attaquer les infrastructures d’information et les forces à
forte composante d’information. Des armes biologiques personnalisées et l’émergence
d’opérations biologiques pourraient également occuper une place importante à l’avenir.
Le manque à investir dans les efforts de développement des capacités en fonction de
ces possibilités représente un risque considérable pour l’avenir.
Implications pour les facteurs humains
À mesure que la société change, les capacités dont les citoyens ont besoin pour
relever les défis changent également. Au début des années 1900, une personne qui
avait acquis les simples aptitudes de lecture, d’écriture et de calcul était jugée
alphabète. Aujourd’hui, on s’attend à ce que tous les élèves sachent lire d’un œil critique,
écrire de façon convaincante, penser et raisonner logiquement et résoudre des
problèmes complexes de mathématique et de science. D’après une étude enGauge 21st
Century Skills237, la force motrice du 21e siècle sera le capital intellectuel des citoyens.
Sur le front militaire, les soldats auront besoin de compétences de l’âge numérique afin
de fleurir sur le champ de bataille numérique. Et le système d’instruction militaire doit
apporter des changements parallèles pour préparer les soldats à cet environnement.
Notamment, le système d’instruction doit comprendre et adopter les compétences
exigées par la technologie changeante du 21e siècle. Ces compétences comprennent :238
Alphabétisme visuel et informatique : L’interface utilisateur graphique du World
Wide Web et la convergence de la voix, de la vidéo et des données dans un format
numérique ont augmenté de façon dramatique l’utilisation de l’imagerie visuelle. Des
avancées telles que les appareils photo numériques, les progiciels de graphisme, la
vidéo en continu et des normes d’imagerie communes permettent l’utilisation de
l’imagerie visuelle pour communiquer des idées. Il faut de bonnes aptitudes de visualisation pour être en mesure de déchiffrer, d’interpréter, de détecter des modèles et de
communiquer à l’aide d’imagerie. L’alphabétisme informatique comprend l’accès efficient et efficace à l’information, l’évaluation de l’information d’un œil critique et avec
compétence et l’utilisation de l’information de façon appropriée et créative.
Publication no 1 de la collection JADEX
51
Alphabétisme culturel et connaissance du monde : Comme le monde devient
de plus en plus câblé et interconnecté, la mondialisation du commerce, des échanges et
des conflits qui en résulte augmente le besoin d’alphabétisme culturel. Dans une telle
économie mondiale, avec des interactions, des partenariats et de la concurrence du
monde entier, il y a un besoin plus grand de connaître, de comprendre et d’apprécier les
autres cultures, y compris les normes culturelles d’une société technologique.
Adaptabilité, gestion de la complexité et auto-direction : Le monde interconnecté d’aujourd’hui génère une complexité sans précédent. La mondialisation et le Web
sont intrinsèquement complexes et accélèrent le rythme de changement du monde contemporain. L’interaction dans un tel environnement exige des individus capables
d’identifier les conditions changeantes et d’y réagir indépendamment. En effet, les individus doivent être des apprenants autonomes qui sont capables d’analyser de nouvelles
conditions à mesure qu’elles surviennent, déterminer les nouvelles aptitudes qui seront
nécessaires pour y faire face et, de façon indépendante, tracer une route qui réagit à ces
changements. Ils doivent être en mesure de tenir compte de contingences, de prévoir le
changement et de comprendre les interdépendances dans les systèmes.
Curiosité, créativité et prise de risques : De nos jours, on s’attend à ce que les
individus s’adaptent à des environnements changeants. Un trait de caractère indispensable dans ces situations est une curiosité vis-à-vis du monde et de la façon dont il
marche. Les chercheurs comprennent maintenant comment la structure même du
cerveau peut être modifiée grâce à des entreprises intellectuelles. La curiosité stimule
l’apprentissage pendant toute la vie car elle contribue à la qualité de la vie et au capital
intellectuel du pays. La prise de risques est tout aussi importante — sans elle, il y aurait
peu de progrès sous la forme de découvertes, d’inventions et d’apprentissage.
Processus mental de niveau élevé et raisonnement solide : Depuis des
décennies, les rapports proposent un processus mental de niveau élevé et un raisonnement solide dans les programmes de cours d’école. Cela comprend la réflexion créative, la prise de décisions, la résolution de problèmes, la visualisation mentale et la faculté d’apprendre et de raisonner. Le raisonnement solide permet aux individus de planifier, de concevoir, d’exécuter et d’évaluer les solutions — processus qui sont souvent
effectués de façon plus efficiente et plus efficace au moyen d’outils technologiques.
Travail en équipe et collaboration : Le rythme rapide de la société d’aujourd’hui
et des réseaux de communications a causé et habilité un déplacement de la prise de
décision jusqu’au niveau des individus. En même temps, la complexité du monde contemporain exige un degré élevé de spécialisation des preneurs de décisions. Cela exige
le travail en équipe des spécialistes pour accomplir des tâches complexes de façons qui
soient efficientes, efficaces et opportunes. La technologie de l’information joue un rôle
clé dans la facilité avec laquelle les individus et les groupes collaborent. Les courriels,
les télécopies, la messagerie vocale, les audioconférences et les vidéoconférences, les
salons de clavardage, les documents partagés et les lieux de travail virtuels peuvent
donner lieu à une collaboration plus opportune et itérative.
Responsabilité personnelle et sociale : Les technologies posent souvent des
dilemmes éthiques et des conflits de valeurs. À mesure que la complexité technique
augmente, l’éthique et les valeurs doivent guider l’application des sciences et de la technologie aux niveaux personnel, communautaire et gouvernemental. Les individus
doivent assumer cette responsabilité et contribuer à titre de citoyens informés à tous les
niveaux.
52
Publication no 1 de la collection JADEX
Communication interactive : Dans notre société câblée et réseautée, il est
impératif que les gens sachent comment communiquer à l’aide de la technologie. Cela
comprend la communication asynchrone et la communication synchrone, telle que le
courriel de personne à personne, les interactions de blogue et de wiki, les interactions
de groupe dans des environnements virtuels, les salons de clavardage, les environnements de jeux multiutilisateurs, les vidéoconférences interactives, les interactions
téléphoniques/audio et les interactions au moyen de simulations et de modèles. Ces
interactions exigent la connaissance de conventions souvent propres à l’environnement
en cause. Les technologies d’information ne changent pas ce qui est nécessaire aux
communications interactives de haute qualité. Par contre, elles ajoutent de nouvelles
dimensions qui doivent être maîtrisées pour qu’elles deviennent transparentes (p. ex.
établissement de l’horaire sur plusieurs fuseaux horaires, diversité culturelle et problèmes de langue). Si cette exigence n’est pas respectée, ces technologies risquent de
nuire à la communication plutôt que de la rehausser.
Établissement des priorités, planification et gestion des résultats : Les hauts
niveaux de complexité exigent une planification soigneuse, la gestion et la capacité de
prévoir les contingences. Cela implique davantage que simplement se concentrer sur
l’atteinte des principaux objectifs de la mission ou contrôler les résultats attendus. Cela
exige également faire preuve de souplesse et de créativité pour anticiper également des
résultats imprévus.
Conclusion
Au 21e siècle, le leadership appartiendra aux nations qui sauront le mieux tirer profit
du changement. La recherche en sciences, en technologie et en ingénierie est devenue
le moteur le plus puissant du changement dans notre société. Une solide capacité de
recherche prospective en matière de défense permettra à l’Armée de terre de relever
une grande variété de défis futurs, que ce soient des menaces à la sécurité nationale,
des problèmes environnementaux, des urgences publiques ou des crises imprévisibles.
Des solutions aux problèmes pressants continueront d’émerger de façons inattendues
de nouvelles connaissances scientifiques et technologiques.
Les technologies militaires continueront indubitablement d’augmenter grâce à
l’amélioration du renseignement, de la vitesse, de la portée, de la furtivité, de la létalité
et de l’autonomie dans ce qui se résume à une course continue visant à l’emporter sur
les menaces perçues. En effet, malgré l’incapacité inhérente de prédire l’avenir, il y a
suffisamment de données sur les tendances pour affirmer que la technologie
(principalement commerciale) continuera de progresser de façon exponentielle et de
converger (sauf catastrophe imprévue). Cela offre le potentiel à de petits groupes
amplement financés d’atteindre un avantage technologique asymétrique dans certains
créneaux particuliers, ce qui constitue une menace pour la supériorité militaire
occidentale actuelle.
Des avancées prévisibles en intelligence artificielle, informatique, simulation,
communication, capteurs, robotique et blocs d’alimentation portatifs commencent à
peine à influencer l’orientation du développement des capacités de la force terrestre
contemporaine. Malheureusement, compte tenu de la lenteur avec laquelle les nouvelles
capacités majeures de système sont livrées, compliquée par une filière
d’approvisionnement qui est entièrement nantie d’équipement et de plates-formes
principalement classiques, il sera difficile de réagir en temps opportun aux changements
technologiques rapides et continus, pour ne pas parler d’une atteinte potentielle (peutêtre imminente) à la sécurité causée par de nouvelles percées technologiques
Publication no 1 de la collection JADEX
53
commerciales. De plus, les forces armées internationales perdent leur position
concurrentielle sur le marché à cause de la réduction des dépenses de défense.
Néanmoins, l’innovation commerciale va bon train, ce qui donne lieu à une
obsolescence rapide de la technologie militaire en raison de la réduction du coût et du
cycle opératoire du développement de la technologie commerciale.
Il n’est pas encore clair si les États en déroute et défaillants ou les groupes de
terroristes et les syndicats du crime organisé incorporeront ces nouvelles capacités de
haute technologie dans leurs opérations dans une mesure suffisante pour menacer la
supériorité militaire occidentale. Cependant, Al-Qaïda s’est déjà avéré compétent à
mettre en valeur le pouvoir des technologies de réseautage et à adapter la technologie
commerciale à l’utilisation comme armes (comme dans le cas de l’utilisation, le
11 septembre, d’avions à réaction de ligne comme missiles de croisière à longue
portée). En outre, la connaissance de ce que la technologie commerciale est capable de
faire et de l’endroit où se la procurer fait partie du domaine public sur Internet; les
produits de cette technologie sont faciles à commander par Internet avec livraison le
lendemain par un des nombreux services de messagerie internationale. En effet, des
attaques asymétriques au moyen de simples technologies commerciales, telles que des
téléphones cellulaires ou des télécommandes IR, se sont déjà produites. En outre,
comme le montre l’expérience avec des auteurs d’attentats suicides, ces menaces
technologiques ad hoc n’ont qu’à fonctionner une seule fois pour être une arme efficace.
Cependant, le problème clé pour le développement de la force consiste à
déterminer dans quelle mesure le potentiel offert par les développements
technologiques en évolution rapide influencera les exigences de capacité dans les 5 à
10 prochaines années. Ces délais sont particulièrement importants, puisque l’historique
des acquisitions d’immobilisations du MDN laisse prévoir qu’il est peu probable que de
nombreuses décisions d’approvisionnement prises aujourd’hui entrent en vigueur bien
avant 2015 et, dans certains cas, avant 2020 ou même après.
Des projets axés sur l’avenir tels que les systèmes autonomes (robotiques) doivent
être entrés dans la filière d’approvisionnement dès que possible. Il est impératif que les
priorités de développement de capacités découlant du projet de « Armée de terre de
demain » soient fonction du rythme de changement technologique dans la vaste gamme
de domaines décrite ci-dessus. En effet, le manque à investir dans les activités de
développement en vue de parer aux menaces potentielles habilitées par l’assaut de
technologies avancées disponibles dans le commerce constitue un grave risque pour les
opérations terrestres de demain.
Endnotes
1. Patrick Murphy, The Effect of Industrialization and Technology on Warfare: 1854-1878
http://www.militaryhistoryonline.com/general/articles/effectofindustrialization.aspx
2. http://www.ukinvest.gov.uk/10481/en_IL/0.pdf. Le CEO Briefing, commandité par UK Trade & Investment, est un
programme de recherche annuel de l’Economist Intelligence Unit conçu pour identifier les enjeux de gestion auxquels font
face les dirigeants mondiaux d’entreprise.
3. Diverses technologies définissent la démographie, par exemple les technologies de la fécondité, de la reproduction et
de la contraception influent sur les taux de naissance, alors que l’intervention et les traitements médicaux peuvent
prolonger l’espérance de vie. La mondialisation est également définie par la technologie, notamment celle qui a trait à
l’information et aux communications.
4. http://www.britannica.com/eb/article-9066286/science
5. http://www.aip.org/tip/INPHFA/vol-8/iss-6/p22.html
6. http://www.britannica.com/eb/article-9071527/technology
7. http://www.britannica.com/eb/article-9110174/military-technology
8. Cornish, E. (2004). Futuring: The exploration of the future. Bethesda, MD: World Future Society. P1.
9. Ibid.
10. Ibid. P7.
54
Publication no 1 de la collection JADEX
11. Ibid. PP22
12. Technological progress comprises many sub-trends. Some of the more important trends will be highlighted in following
sections.
13. Cornish, E. (2004). Futuring: The exploration of the future. Bethesda, MD: World Future Society. p. 26.
14. http://www.ipcc.ch/pub/pub.htm
15. http://www.xprize.org/xprizes/ansari_x_prize.html
16. http://www.xprize.org/xprizes/genomics_x_prize.html
17. http://www.xprize.org/xprizes/automotive_x_prize.html
18. http://www.darpa.mil/grandchallenge/index.asp
19. http://www.robocup.org/
20. http://www.thinkcycle.org/ ThinkCycle est une initiative universitaire sans but lucratif visant à soutenir la collaboration
répartie en vue de relever des défis de conception auxquels font face les collectivités mal desservies et l’environnement.
21. http://www.yet2.com/app/about/about
22. http://www.cio.com/archive/100106/essential_tech.html
23. http://www.technewsworld.com/story/57224.html
24. http://www.kurzweilai.net/articles/art0134.html?printable=1
25. http://www.accelerationwatch.com/degree.html
26. http://designnews.com/article/CA6435790.html?nid=2332&rid=2052535400
27. http://www.newscientisttech.com/article/dn11632?DCMP=NLC-nletter&nsref=dn11632
28. http://www.keckfutures.org/site/PageServer?pagename=home
29. Where Science is Headed—Sixteen Trends The Journal of the Washington Academy of Sciences (Fall-Winter 2003)
Page 1, Joseph Coates Consulting Futurist, Inc.
30. http://www.weforum.org/en/initiatives/gcp/Global%20Competitiveness%20Report/index.htm
31. http://www.nrc-cnrc.gc.ca/aboutUs/ren/nrc-foresight_f.html
32. http://wtec.org/ConvergingTechnologies/
33. http://www-03.ibm.com/press/us/en/pressrelease/21473.wss
34. http://www.pewInternet.org/PPF/r/188/report_display.asp
35. http://www.spectrum.ieee.org/sep06/4435
36. http://www.openfabrics.org/archives/aug2005datacenter/W8.pdf (diapo 7)
37. http://www.berkeley.edu/news/media/releases/2005/09/14_key.shtml
38. http://www.intel.com/pressroom/archive/releases/20070416supp.htm Le projet Larrabee d’Intel fait également l’objet de
cette annonce. Il laisse prévoir des architectures à puces parallèles faciles à programmer conçues pour se traduire par des
performances à des billions d’opérations à point flottant par seconde (téraflops). Ce niveau de performance mènera à
l’accélération des applications telles que l’informatique scientifique, la reconnaissance, l’extraction de données, la
synthèse, la visualisation, l’analyse financière et les applications de santé. De plus, Intel a des objectifs précis pour
ramener la consommation d’énergie et la taille des moules de fabrication pour produire des processeurs pour l’utilisation
dans des ordinateurs ultra mobiles, visant une réduction 10X de la consommation d’énergie de sa gamme de processeurs
d’ici 2010.
39. http://domino.research.ibm.com/comm/pr.nsf/pages/news.20070412_3dchip.html
40. Ces puces sont utilisées non seulement sur les super-ordinateurs, mais aussi dans le développement du téléphone
cellulaire. Si ces progrès permettent de réaliser les revendications de performance, on peut s’attendre à ce que les
performances des téléphones cellulaires atteignent de nouveaux niveaux. Il serait raisonnable de s’attendre à ce que les
téléphones cellulaires atteignent bientôt le niveau de performance des ordinateurs portatifs.
41. http://www.prc.gatech.edu/
42. Intel vient d’introduire son processeur de medias Intel® CE 2110, une architecture de système complet sur puce
(SoC) qui combine un noyau de traitement de 1 GHz à un puissant traitement audio video (AV) avec graphisme et des
composants d’entrée/sortie (E/S) sur une seule puce destinée à l’utilisation dans des appareils électroniques de
consommation.
43. http://mr.caltech.edu/media/Press_Releases/PR12942.html
44. http://spectrum.ieee.org/mar07/4946
45. Vaut 1 024 gigaoctets.
46. http://www.sandisk.com/Oem/Default.aspx?CatID=1477
47. http://news.com.com/Bye-bye+hard+drive,+hello+flash/2100-1006_3-6005849.html
48. D’après Xerox, l’informatique omniprésente est de l’informatique invisible qui n’existe sur aucun dispositif personnel
d’aucune sorte, mais qui existe partout dans l’ébénisterie. http://sandbox.xerox.com/ubicomp/
49. http://www.ipsos-na.com/news/pressrelease.cfm?id=3049
50. http://www.technewsworld.com/story/56567.html
51. http://www.itu.int/osg/spu/publications/Internetofthings/
52. http://www.emc.com/about/destination/digital_universe/
53. Un exaoctet vaut un milliard de gigaoctets.
54. http://www.top500.org/lists/2006/11/performance_development
55. http://books.nap.edu/openbook.php?record_id=10784&page=1
56. En plus des quatre superordinateurs les plus rapides au monde, les É.-U. en ont sept parmi les dix plus rapides et
309 parmi les 500 plus rapides. Par conséquent, les É.-U. ont plus de superordinateurs parmi les 500 plus rapides que les
Publication no 1 de la collection JADEX
55
30 autres pays combinés de la liste. http://www.top500.org/list/2006/11/100
57. http://www.newscientist.com/article.ns?id=dn8876&print=true
58. Un petaflop est une indication des performances d’un processeur d’ordinateur représentant mille billlions d’opérations
à point flottant par seconde.
59. http://www.technewsworld.com/story/56545.html
60. http://www-03.ibm.com/press/us/en/pressrelease/21278.wss
61. Internet2 est un consortium de réseaux avancés sans but lucratif comprenant plus de 200 universités américaines
collaborant avec 70 corporations majeures, 45 organismes gouvernementaux, laboratoires et autres établissements
d’enseignement supérieur ainsi que plus de 50 organisations partenaires internationales.
62. IPv6 est le système d’adressage du protocole Internet qui replacera la version IPv4 en vigueur. IPv6 offrira 5x1028
adresses pour chacune des 6,5 milliards de personnes. IPv4, par contre, ne prend en charge qu’environ 4,3 milliards
d’adresses.
63. http://www.Internet2.edu/lsr/
64. http://www.nari.ee.ethz.ch/commth/pubs/p/proc03
65. Le groupe de travail IEEE 802.11n vient d’approuver l’ébauche 2.0 de la norme, ce qui prépare le chemin pour les
produits LAN sans fil > 100 Mb/s. À l’origine, la norme IEEE prévoyait un débit minimal de > 100 Mb/s, mais plusieurs
produits « ébauche 1 » ou « pré-11n » déjà sur le marché offrent des débits de 140 à 160 Mb/s. Nombre de fournisseurs
affirment qu’ils s’attendent à pouvoir atteindre plus de 200 Mb/s, et parfois des débits nettement plus élevés encore, grâce
à un plus grand nombre d’antennes, à une plus grande puissance et à d’autres perfectionnements.
http://www.ieee802.org/11/
66. http://www.wi-fi.org/OpenSection/why_Wi-Fi.asp
67. http://www.intel.com/netcomms/technologies/wimax/index.htm
68. http://www.intelsatgeneral.com/pdf/en/aboutus/releases/2007-4-11-IRIS.pdf
69. Ibid.
70. http://news.bbc.co.uk/2/hi/science/nature/6645987.stm
71. http://www.spectrum.ieee.org/feb07/4892
72. Ibid.
73. http://cs.nyu.edu/~jhan/ftirtouch/
74. http://www.utoronto.ca/atrc/reference/tech/haptic.html
75. http://www.msl.ri.cmu.edu/projects/haptic/
76. http://wii.nintendo.com/controller.jsp
77. http://www.agilealliance.org/
78. http://www.military-information-technology.com/article.cfm?DocID=1589
79. http://itredux.com/office-20/database/
80. http://www.iupload.com/
81. http://www.knownow.com/
82. http://www.weforum.org/en/initiatives/gcp/Global Information Technology Report
83. http://www.weforum.org/pdf/gitr/rankings2007.pdf
84. http://www.foreignpolicy.com/story/cms.php?story_id=3420&page=1
85. http://www.unctad.org/Templates/WebFlyer.asp?intItemID=3991&lang=1
86. http://www.itu.int/ITU-D/ict/statistics/
87. http://computerworld.com
88. www.scei.co.jp/folding/en/
89. http://folding.stanford.edu/
90. http://www.boincstats.com/stats/project_graph.php?pr=cpdn&view=hosts
91. http://yodel.yahoo.com/2007/03/27/yahoo-mail-goes-to-infinity-and-beyond
92. http://www.amazon.com/gp/browse.html?node=16427261
93. www.dodccrp.org/publications/pdf/Alberts_Power.pdf
94. Cette idée de faire appel à l’intelligence collective de l’opinion d’un vaste auditoire est maintenant souvent désignée
par le terme « approvisionnement par la foule ». Une application type de l’approvisionnement par la foule est le
journalisme citoyen, dans lequel le public participe au processus de reportage. De nouvelles applications paraissent
régulièrement, par exemple CrowdSpirit - http://www.crowdspirit.org/how-it-works. De nombreux gros fournisseurs profitent
également de ce phénomène, par exemple Dell Computers avec son site Idea Storm - http://www.ideastorm.com/.
95. http://www.opensource.org/
96. http://www.laptop.org/en/vision/index.shtml
97. http://www.microsoft.com/middleeast/press/presspage.aspx?id=200718
98. http://www.developmentgateway.org/?goo=147
99. http://web.mit.edu/newsoffice/2001/ocw.html
100. http://ocw.mit.edu/OcwWeb/Global/all-courses.htm
101. http://oedb.org/library/features/how-the-open-source-movement-has-changed-education-10-success-stories
102. http://www.accelerationwatch.com/singtimingpredictions.html
103. http://www.forbesinc.com/newsletters/fgi/
104. Le Web sémantique est une extension du Web actuel dans laquelle un sens bien défini et structuré est attribué à
l’information, permettant aux ordinateurs et aux gens de mieux collaborer. http://www.w3.org/RDF/Metalog/docs/sw56
Publication no 1 de la collection JADEX
easy.html
105. http://www.darpa.mil/ipto/programs/pal/index.htm
106. http://www.proto-mind.com/
107. http://www.intelli-vision.com/
108. http://www.vigilos.com/article_04032006.html
100. http://www.newscientisttech.com/channel/tech/mg19526146.000?DCMP=NLC-nletter&nsref=mg19526146.000
110. http://www.newscientist.com/article.ns?id=dn6914
111. http://www.newscientist.com/article.ns?id=dn6924
112. http://www.kurzweilai.net/meme/frame.html?main=/articles/art0655.html
113. http://www.darpa.mil/grandchallenge/index.asp
114. http://www.scientificcomputing.com
115. http://www.kurzweilai.net/meme/frame.html?main=/articles/art0637.html
116. http://www.newscientist.com/article.ns?id=mg18624945.800
117. http://www.ric.org/bionic/
118. http://www.sony.net/SonyInfo/QRIO/top_nf.html
119. http://robots.stanford.edu/papers/thrun.icra_minerva.html
120. http://www.sciencedaily.com/releases/2004/03/040324071203.htm
121. http://motorcortex.huji.ac.il/research.asp#4
122. http://www.mdsupport.org/library/chip.html
123. http://www.nidcd.nih.gov/health/hearing/coch.asp
124. http://www.machinebrain.com/
125. http://www.sciam.com
126. Hew, Patrick Chisan, The Generation of Situational Awareness within Autonomous Systems –—Near to Mid Term
Study — Issues, Australian DoD, Defence Science and Technology Organization, DSTO-GD-0467, Edinburgh South
Australia 5111 Australie, juillet 2006. http://dspace.dsto.defence.gov.au/dspace/handle/1947/4560
127. http://www.nasa.gov/vision/universe/roboticexplorers/robots_human_coop.html
128. http://www.irobot.com/sp.cfm?pageid=95
129. http://www.irobot.com/sp.cfm?pageid=109
130. http://www.isi.edu/robots/
131. http://www.sigmascan.org//ViewIssue.aspx?IssueId=302
132. http://www-bsac.eecs.berkeley.edu/archive/users/warneke-brett/SmartDust/index.html
133. http://www.cs.cmu.edu/~claytronics/
134. http://www.sigmascan.org//ViewIssue.aspx?IssueId=302
135. http://www.newscientisttech.com
136. Ibid.
137. http://www.gatech.edu/news-room/release.php?id=125
138. http://sbir.nasa.gov/SBIR/successes/ss/9-066text.html
139. http://www.news.cornell.edu/stories/Nov06/ResilientRobot.ws.html
140. http://www.rctoys.com/rc-toys-and-parts/DF-TANGORC/INDUSTRIAL.html
141. http://todbot.com/blog/category/roomba/
142. http://www.botmag.com/
143. http://www.newscientisttech.com/article/mg19325966.500?DCMP=NLC-nletter&nsref=mg19325966.500
144. Ibid.
145. http://www.designnews.com/article/CA6424936.html?nid=3198&rid=2052535400
146. Technology Development for Army Unmanned Ground Vehicles, Committee on Army Unmanned Ground Vehicle
Technology, Board on Army Science and Technology, Division on Engineering and Physical Sciences, NATIONAL
RESEARCH COUNCIL OF THE NATIONAL ACADEMIES, THE NATIONAL ACADEMIES PRESS, Washington, D.C.
Copyright 2002 by the National Academies Press, http://books.nap.edu/openbook.php?record_id=10592&page=13
147. http://www.newscientist.com/article.ns?id=mg18624985.800
148. http://www.newscientisttech.com/article/mg19426006.800
149. http://www.technologyreview.com/InfoTech/wtr_16479,294,p1.html
150. http://www.smh.com.au/articles/2007/04/23/1177180526985.html
151. http://www.cio.com/article/107551?source=nlt_cioinsider
152. MVR est la première étude publique de prédiction et de planification sur dix ans des technologies Web 3D et des
applications, marchés et répercussions sociales potentielles connexes. http://metaverseroadmap.org/
153. http://www.newscientist.com/article.ns?id=mg18625036.200
154. http://www.songdo.com/default.aspx
155. http://www.sciam.com/print_version.cfm?
156. http://www.jhsph.edu/publichealthnews/articles/2007/jacobs_lorena_mosquito.html
157. http://www.ornl.gov/sci/techresources/Human_Genome/elsi/gmfood.shtml
158. De nouveaux outils de laboratoire, tels que les produits de la technologie de laboratoire microfluidique sur puce
attignent rapidement la maturité et devraient accélérer davantage les domaines existants de la biologie et donner
naissance à des sujets d’étude entièrement nouveaux. Par exemple, l’étude de la biologie se divise maintenant dans des
domaines tels que la génomique (l’étude des gènes et de leurs fonctions) et la protéomique (l’étude des protéines codées
Publication no 1 de la collection JADEX
57
par les gènes).
159. http://www.labx.com/
160. http://www.nap.edu/catalog.php?record_id=11087#description
161. L’Initiative de recherche et de technologie CBRNE dirigée par RDDC est un excellent exemple de l’approche
proactive adoptée par le Canada. http://www.crti.drdc-rddc.gc.ca/fr/default.asp
162. Ibid.
163. http://www.mrsc.org/Subjects/Governance/DemogOver.aspx
164. http://www.globalaging.org/health/world/2005/robot.htm
165. http://www.newscientist.com/channel/health/mg18825264.800.html
166. La nutrigénomique est la science qui étudie l’effet de la nourriture et des éléments nutritifs ingérés sur les gènes —
notamment ceux liés à la prévention de maladies.
167. http://www.newscientist.com/channel/health/mg18825264.800.html
168. http://research.microsoft.com/ur/us/fundingopps/RFPs/eScience_RFP_2006.aspx
169. http://biology.plosjournals.org/perlserv/?request=get-document
170. http://parts.mit.edu/registry/index.php/Main_Page
171. http://www.nature.com/doifinder/10.1038/431624a
172. http://www.eetimes.com/news/latest/showArticle.jhtml
173 . http://www.darpa.mil/sto/solicitations/SN07-20/index.html
174. http://www.neurosky.com/
175. http://humanitieslab.stanford.edu/2/290
176. http://www.biomed.drexel.edu/BioNano/
177. http://www.sciam.com/article.cfm
178. http://asdn.net/ngc2007/presentations/mamikunian.pdf
179. http://www.nano.gov/
180. http://chemicalvision2020.org/nanomaterialsroadmap.html
181. http://english.www.gov.tw/TaiwanHeadlines/index.jsp?categid=9&recordid=91955
182. http://www.afcea.org/signal/articles/templates
183. http://web.mit.edu/ISN/
184. http://www.afcea.org/signal/articles
185. http://www.cs.cmu.edu/~claytronics/
186. http://www.photonics.com/content/spectra/2006/July/tech/83278.aspx
187. http://www.nserc.ca/news/2004/p040311_bio3.htm
188. http://nint-innt.proteus.cisti.nrc.ca/main_e.html
189. À l’heure actuelle, bien que le tourisme spatial soit une réalité commerciale, seuls les riches peuvent se le permettre.
Comme c’est le cas de la plupart des entreprises axées sur la technologie, toutefois, ce n’est qu’une question de temps
avant que les coûts se réduisent au point où elles commencent à être à la portée de la classe moyenne.
190. http://www.reuters.com/article/scienceNews/idUSN1742589120070417
191. http://www.virgingalactic.com/htmlsite/index.htm
192. http://www.technewsworld.com/story/57383.html
193. À titre d’exemple, des chercheurs en Californie ont injecté des cellules souches embryonnaires humaines dans des
souris en gestation fœtales âgées de deux semaines. À mesure que les souris se développaient, certaines cellules
souches humaines ont survécu et sont devenues des composants fonctionnels du cerveau et du système nerveux des
souris. http://news.nationalgeographic.com/news/2005/12/1214_051214_stem_cell.html
194. http://thomas.loc.gov/cgi-bin/bdquery/z?d110:SN00005:@@@L&summ2=m&
195. http://www.technewsworld.com/story/56853.html
196. http://www.transparency.org/global_priorities
197. http://www.nrdc.org/media/pressreleases/051019.asp
198. http://www.technewsworld.com/story/56458.html
199. http://www.technewsworld.com/story/56184.html
200. http://www.nytimes.com/2007/03/11/magazine/11Neurolaw.t.html
201. http://thomas.loc.gov/cgi-bin/bdquery/z?d108:s.01053:
202. Pierre-Paul Grasse a introduit le concept de la stigmergie aux années 1950 pour décrire la communication indirecte
parmi les individus de sociétés d’insectes.
203. http://www.tsa.gov/datasecurity/b
204. http://blog.sciam.com/index.php?title=journals
205. http://colab.arc.nasa.gov/
206. http://colab.arc.nasa.gov/virtual
207. http://www.cio.com/article/107253/Why_You_Should_Collaborate
208. http://discovermagazine.com/2007/mar/radioactive-boy-scout
209. http://www.businessweek.com/innovate/content/jul2006/id20060713_755844.htm
210. http://www.technewsworld.com/edpick/56424.html
211. http://www.technewsworld.com/story/57041.html
212. http://www.boozallen.com/publications/article/29354647
213. http://www.taxpayeraccess.org/
58
Publication no 1 de la collection JADEX
214. http://www.popsci.com/popsci/how20/58c7db3c57f61110vgnvcm1000004eecbccdrcrd.html
215. http://www.technewsworld.com/edpick/57400.html .
216. http://blog.digg.com/?p=74
217. http://www.marketingterms.com/dictionary/viral_marketing/
218. http://drupal.org/node/60614
219. http://www.washingtonpost.com/wp-dyn/content/article/2005/07/06/AR2005070601953.html
220. http://m-trends.org/2005/11/mososo-wi-fi.html
221. En s’adressant à une conférence en 2006, le président de Motorola, Sir David Brown, indiquait que l’industrie du
service mobile n’avait aucune idée du succès qu’elle atteindrait. Il admettait qu’au milieu des années 1980, l’industrie des
téléphones mobiles estimait qu’en 2000, il y aurait un marché pour environ 900 000 téléphones mobiles. Au tournant du
millénaire, a-t-il dit, on vendait 900 000 téléphones toutes les 19 heures.
222. http://www.darkreading.com/document.asp?doc_id=111595
223. http://www.unitedvillages.com/
224. http://europa.eu/rapid/pressReleasesAction.do?reference=IP/06/769&format=HTML&aged=0
225. http://dndtalk.com/Joomla/
226. http://www.milblogging.com/result.php?country=Canada&mode=advance
227. http://canadian-forces.blogspot.com/
228. http://military.families.com/blog/category/357
229. http://www.csbaonline.org/4Publications/PubLibrary/R.20041201.RevInWar
230. http://www.csbaonline.org/4Publications/PubLibrary/R.20041201.RevInWar , P80.
231. http://www.holtzbrinckpublishers.com/academic/Book/BookDisplay.asp?BookKey=566248
232. http://www.gpsworld.com/gpsworld/article/articleDetail.jsp?id=300303
233. http://www.spacedaily.com/reports/China_Launches_Compass_Navigation_Satellite_999.html
234. http://imagesat.pionet.com/?catid={38D9FD69-CE40-4E27-8F6D-85D35E50AFEF}
235. http://earth.google.com/
236. http://www.fastcompany.com/magazine/104/open-debate-extra.html
237. Les aptitudes de l’étude enGauge 21st Century Skills ont été établies au moyen d’un processus qui comprenait des
revues de la littérature, de la recherche sur les caractéristiques en émergence de la Génération Net, une revue des
rapports récents sur les tendances de l’effectif du commerce et de l’industrie, une analyse d’ensembles de compétences
reconnus à l’échelle nationale, l’apport d’enseignants, des données de sondages auprès des enseignants et les réactions
des groupes constitutifs. (http://www.metiri.com/features.html)
238. Cette liste de compétences du 21e siècle a été dérivée de l’étude « enGauge 21st Century Skills ».
http://www.ncrel.org/engauge/skills/skills.htm
Publication no 1 de la collection JADEX
59
BIBLIOGRAPHIE
Bainbridge, William S. et Mihail C. Roco (éditeurs). Managing Nano-Bio-Infocogno
Innovations: Converging Technologies In Society, Springer, Dordrecht, Pays-Bas,
2006.
Committee on Accelerating Technology Transition, National Materials Advisory Board,
Board on Manufacturing and Engineering Design, Division on Engineering and
Physical Sciences. ACCELERATING TECHNOLOGY TRANSITION Bridging the Valley
of Death for Materials and Processes in Defense Systems, National Research Council
of the National Academies, The National Academies Press, Washington, DC., 2004.
Committee on Army Unmanned Ground Vehicle Technology, Board on Army Science
and Technology, Division on Engineering and Physical Sciences. Technology
Development for Army Unmanned Ground Vehicles, National Research Council Of The
National Academies, Washington, D.C., 2002.
Cornish, Edward. FUTURING: The Exploration Of The Future. The World Future
Society, 2005.
Cutter, Susan L. The Vulnerability of Science and the Science of Vulnerability, Annals
of the Association of American Geographers, 93(1), 2003, p. 1–12
© 2003, Association of American Geographers.
Development, Concepts and Doctrine Centre (DCDC). The DCDC Global Strategic
Trends Program, Third Edition, UK Ministry of Defence (MOD), janvier 2007.
Hew, Patrick C., The Generation of Situational Awareness within Autonomous
Systems — Near to Mid Term Study — Issues, Australian DoD, Defence Science and
Technology Organization, DSTO-GD-0467, Edinburgh South Australia 5111, Australie,
juillet 2006.
Kramer, Franklin D. et John C. Cittadino. Sweden’s Use of Commercial Information
Technology for Military Applications, Defense Horizons, Center for Technology and
National Security Policy National Defense University, Number 50, octobre 2005.
Kurzweil, Ray. The singularity is near : when humans transcend biology.
Viking, New York, 2005.
Kyser, Giles, Matt Keegan et Samuel A. Musa. Applying Law Enforcement Technology
to Counterinsurgency Operations, Joint Force Quarterly, Issue 46, 3e trimestre 2007.
Parliamentary Commissioner for the Environment 2001: Key Lessons from the History
of Science and Technology: Knowns and Unknowns, Breakthroughs and Cautions.
Parliamentary Commissioner for the Environment, Wellington.
Possony, Stefan T., Jerry E. Pournelle et Francis X. Kane, (Col., USAF Ret.). The
Strategy Of Technology, édition électronique, Copyright © 1997, Jerry E. Pournelle,
édition électronique préparée par WebWrights,
http://www.jerrypournelle.com/sot/sot_intro.htm
U.S. Congress, Office of Technology Assessment, Proliferation of Weapons of Mass
Destruction: Assessing the Risk, OTA-ISC-559 (Washington, DC: U.S. Government
Printing Office, août 1993).
60
Publication no 1 de la collection JADEX
PUBLICATIONS DE LA DIRECTION — CONCEPTS ET
SCHÉMAS DE LA FORCE TERRESTRE
Depuis 1997, la DCSFT et ses prédécesseurs ont produit des publications hors
série, des notes de recherche et des rapports à l’appui du développement des capacités
de l’Armée de terre. La liste qui suit classe les publications dans l’ordre chronologique
selon l’organisation où elles ont été produites à l’origine. Des publications choisies sont
disponibles en format électronique sur le site Web de la DCSFT.
Série de rapports et d’études (1997-2002) de la Direction — Concepts et
schémas de la Force terrestre (DCSFT)
Sans numéro. Auteur inconnu. Armour Combat Vehicle Concept Paper. 19 mai 1998.
RN9801. S. Friesen. Annotated Bibliography of the Future Security Environment. Août
1998.
RN9802. S. Friesen. Some Recent Trends in Major Armed Conflicts, 1988-1997. Oct.
1998.
RN9901 S. Friesen. éd. In the Arena: The Army and the Future Security Environment.
Janv. 1999.
Sans numéro. Auteur inconnu. Future Army Development Plan. 8 mars 1999.
RN9902. R.L. Roy, F.W.P Cameron, capt B. Chapman, I. Julien. Situational Awareness
System Preliminary User Trial Final Report. Juin 1999.
RN9903. Shaye K. Friesen. Is Warfare Becoming more Barbaric. Juin 1999.
RN 9906. Roger L. Roy, Shaye K. Friesen. Historical Uses of Antipersonnel Landmines:
Impact on Land Force Operations. Octobre 1999.
Report 9902. The Future Security Environment. Août 1999.
Report 9904. S. Friesen. Transforming An Army: Land Warfare Capabilities for the
Future Army. Juillet 1999.
Report 9905. S.M. Maloney. An Identifiable Cult: The Evolution of Combat Development
in the Canadian Army, 1946-1965. Août 1999.
Report 9906. Lcol J. Hamel et al. Army Experiment 1: ISTAR. Déc. 1999.
Report 0001. Bgén (retraité) E. Beno et col (retraité) J. Joly. Sustainment Capabilities for
the Army of the Future. Mars 2000.
RN0003. Zakia Bouayed. How to Generate Data Using EBB Suite Tools. Mai 2000.
RN0004. Zakia Bouayed. The Multi-Container Loading Problem. Juin 2000.
RN0101. Zakia Bouayed. Procedures for Updating Databases in the Electronic
Battlebox. Novembre 2001.
Report 0101. Auteur inconnu. Future Army Capabilities: Command, Sense, Act, Shield,
Sustain. Janv. 2001.
RN0102. S. Maloney. Homeland Defence. Janv. 2001.
EXFOR01. Auteur inconnu. Future Army Experiment: Operations in the Expanded
Battlespace. Juin 2001.
EXFOR02. Auteur inconnu. Future Army Experiment: Operations in the Urban
Battlespace. Mai 2002.
Publication no 1 de la collection JADEX
61
Conférences commanditées par le DCSOT (2002)
DP DSPFT, DCSOT, RDDC Toronto. Report of the Army Futures Seminar — Leadership,
séminaire tenu au Collège de commandement et d’état-major de la Force terrestre
canadienne, à Kingston, en Ontario, les 6 et 7 février 2002. Févr. 2002.
Collection de monographies de la DCSOT (2003-2005)
Lcol B. Horn et P. Gizewski (éditeurs). Towards the Brave New World: Canada’s Army in
the 21st Century. 2003.
DCSOT. La Force de demain : Vision conceptuelle des capacités de l’Armée de terre.
2003.
DCSOT. Objectif défini : Le concept d’emploi de l’Armée de terre. Kingston : DCSOT,
31 mars 2004.
Lcol B. Horn, éd. In the Breach: Perspectives on Leadership in the Army Today. 2004.
DCSOT. Crise à Zefra. 2005.
DCSOT/DCSFT Collection de publications relatives à l’Armée de terre de
demain (2006-2007)
Godefroy, maj A.B. Canada’s Army of Tomorrow: Assessing Concepts and Capabilities.
Kingston : Direction — Concepts stratégiques (Opérations terrestres), mai 2006.
Godefroy, maj A.B. The Army of Tomorrow Seminar Wargame Handbook. Kingston :
Direction — Concepts et schémas de la Force terrestre, septembre 2006.
Godefroy, maj A.B. Opérations terrestres 2021 : Concept d’emploi de la force de l’Armée
de terre canadienne de demain. Kingston : Direction — Concepts et schémas de la
Force terrestre, juin 2007.
Collection des publications de JADEX (2007 — présent)
Regan Reshke. Conflits armés : la prochaine génération — Technologies et tendances
mondiales en émergence. Novembre 2007.
62
Publication no 1 de la collection JADEX
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertisement