Vademecum intelligence technologique et économique

L’intelligence technologique et économique est une activité clef du stratège d’entreprise, mais aussi du chercheur, de l’économiste ou de tout citoyen cherchant à comprendre son environnement. Dans une ère d’abondance de données, mais aussi de falsification et de manipulation “post-truth”, la qualification de la donnée de valeur est cruciale. Ce document est un vademecum des principaux points à considérer. Ces points ne sont pas ici détaillés et ce document est un index renvoyant aux principaux concepts clefs.

Il existe de nombreuses raisons de faire de la veille, pas seulement des raisons technologiques ou économiques. Elles peuvent aussi être financières (pour un investisseur ou dans le cadre d’un rachat), légales, ou à fin de comparaison. Sans oublier la simple raison culturelle de curiosité.

Intelligence ou espionnage

L’IE est l’ensemble des activités de collecte, d’analyse et de synthèse des informations en provenance de sources hétérogènes, en termes de nature et de qualité. Ces informations sont généralement disponibles librement, sous une forme brute, alors que l’espionnage se focalise sur les données confidentielles. Toutefois, en IE, il est fréquent que le croisement d’informations puisse fournir une information que certains acteurs économiques auraient souhaité garder secrète.

Connais-toi toi-même

La collecte d’information n’est pas indépendante de la personne qui la fait. En fonction de notre culture, de nos compétences, mais aussi de notre sensibilité politique ou éthique, le classement et l’éveil à certaines informations sera différent. De même, notre type de personnalité influe[1] [2][3], comme celui de la personne à l’origine de l’information.

Le deep learning permet aujourd’hui de connaître des informations sur l’auteur d’un document, sa personnalité, ses valeurs…avec une certaine probabilité

Par ailleurs, nous sommes plus ou moins sensibles aux divers biais cognitifs, tels que le cargo[4], le biais de confirmation[5], la dissonance cognitive[6]…). Le développement de la capacité métacognitive[7] est nécessaire pour faire une IE de qualité.

Propriété immatérielle

La majeure partie de la valeur d’une entreprise n’apparait pas dans son bilan comptable. La propriété immatérielle regroupe des savoir-faire, des relations, des influences, des réflexes, de la culture… Elle est peu approchée par les méthodes classiques[8].
On estime parfois cette valeur immatérielle à 80% de la valeur réelle d’une entreprise.

L’incertitude au coeur de la valeur

Les entreprises industrielles classiques se sont construites sur une capacité à évaluer des risques produit-contrat. Ces risques sont assurables. La société à haute valeur ajoutée et forte marge sont à même de gérer l’incertitude, elle même vecteur de valeur[9]. L’incertitude n’est pas assurable. L’IE contribue à renforcer la capacité d’une organisation à gérer efficacement l’incertitude, et donc, directement à sa capacité à générer des flux de trésorerie dans le futur.

Hétérogénéité des sources

La plupart des sources d’informations sont non structurées, c’est à dire en mode linéaire (comme cet article). Depuis quelques années apparaissent des sources structurées (ex: OWL/RDF[10]). Le système le plus courant de qualification des informations est la “revue par les pairs” ou peer-review (c’est le système actuel des publications scientifiques)[11]. Les communications peuvent être également validées selon ce système. La plupart des données présentes sur le web sont non validées (sauf Wikipédia qui présente une excellente qualité par rapport à la masse d’informations présentes, contrairement à ce qui est généralement admis). Les brevets manifestent une “activité inventive”, mais ne présentent pas forcément une information d’une totale véracité. Ils révèlent parfois les directions stratégiques d’une entreprise, mais peuvent aussi être des “brevets de blocage” pour gêner un concurrent, voire une complète désinformation pour les entrainer dans de fausses pistes.

Anticipation

Les informations s’inscrivent dans le cadre de tendances de fond (megatrends) qui opèrent sur le moyen-long terme dans le domaine[12][13]. Elles permettent d’établir une logique d’apparition des évènements et des faits qui peuvent à première vue paraître aléatoires.

Index et metadonnées

Il existe un certain nombre d’index qui permettent d’identifier une source puis d’en retirer des informations supplémentaires. Traditionnellement, les ISBN, ISSN et DOI sont particulièrement représentés, mais les traçabilités obtenues par blockchain peuvent à terme changer la façon dont les informations seront indexées[14]. La connaissance d’un DOI permet par exemple de remonter aux titres, dates… des documents. Il existe des API permettant d’automatiser cela.

Voir sans être vu, ou pas

Même si le web ne constitue pas la seule source de données, il n’en demeure pas moins le premier réflexe d’une recherche. Or, il est important de comprendre comment les sites peuvent tracer votre recherche, qui constitue, pour eux, une information importante pour leur propre veille d’intelligence économique.

Si vous êtes amenés à chercher des informations sur des sujets sensibles ou pouvant faire l’objet d’une surveillance, même si cette documentation est parfaitement dans votre métier, rester anonyme est une bonne solution.

Au-delà de la simple IP, les technologies de fingerprint permettent d’identifier une machine particulière voir un utilisateur. Aucun moyen de protection n’est universel, mais il convient de se renseigner sur les technologies suivantes: virtualisation(virtualbox), VPN (openvpn), TOR, PGP.

Stocker et consolider les données

Il est recommandé d’utiliser un système de gestion des documents (par exemple ZOTERO) qui permet par ailleurs l’annotation et la gestion en collection.

Un conseil: un document trouvé doit être sauvé immédiatement, car, souvent, les meilleurs documents disparaissent vite.

Analyser les données

L’analyse de données peut être faite “manuellement”, mais il est souvent plus efficace d’automatiser le processus. L’utilisation des expressions régulières (regex)[15] et des commandes AWK, SED et GREP d’UNIX permet d’extraire très rapidement des informations, mais sont assez complexes d’usage. Google Refine[16] est un logiciel bénéficiant d’une interface graphique. De plus en plus, les méthodes de réseaux de neurones profonds (Tensorflow[17]) permettent de traiter des quantités importantes données et sont particulièrement utiles lorsqu’il s’agit de chercher une aiguille dans une motte de foin.

Réseaux sociaux

Savoir qui est en relation avec qui, ou qui s’intéresse à quoi est une information importante. Les réseaux sociaux professionnels (linkedIN, academia, ResearchGate) sont donc une excellente source d’information et de désinformation.

Processus de qualification de l’information

Une information obéit au quadrilemme. Elle est donc vraie, fausse, à la fois vraie et fausse, ou ni vraie ni fausse. Le classement de l’information se fait par son rattachement à une racine fiable documentaire. Quant à l’auteur, il faut bien distinguer sa notoriété (qui provient d’une reconnaissance de personnes physiques ou morales qualifiées) de sa célébrité (qui provient de personnes séduites ou influencées). La seconde ne vaut rien en IE et est pourtant celle mesurée par les réseaux sociaux.

Ce document est dans sa version de janvier 2017.

Références

[1] C. J. Carpenter, “Narcissism on Facebook: Self-promotional and anti-social behavior,” Personal. Individ. Differ., vol. 52, no. 4, pp. 482–486, Mar. 2012.
[2] J. Dehing, “L’œuvre de Jung – ombre et clarté,” Cah. Jungiens Psychanal., no. 123, pp. 51–77, Jul. 2012.
[3] S. Schwartz, “Basic Human Values: Theory, Measurement, and Applications,” Revue Française de Sociologie, 2006.
[4] C. H. Long, “Cargo Cults as Cultural Historical Phenomena,” J. Am. Acad. Relig., vol. XLII, no. 3, pp. 403–414, 1974.
[5] R. S. Nickerson, “Confirmation bias: A ubiquitous phenomenon in many guises.,” Rev. Gen. Psychol., vol. 2, no. 2, pp. 175–220, 1998.
[6] L. Festinger, A Theory of Cognitive Dissonance. Stanford University Press, 1957.
[7] E. Filevich, M. Dresler, T. R. Brick, and S. Kuhn, “Metacognitive Mechanisms Underlying Lucid Dreaming,” J. Neurosci., vol. 35, no. 3, pp. 1082–1088, Jan. 2015.
[8] M. E. Porter, “How competitive forces shape strategy,” 1979.
[9] F. H. Knight, Risk, uncertainty and profit. Kissimmee, Fla: Signalman, 2009.
[10] L. Razmerita, A. Angehrn, and A. Maedche, “Ontology-Based User Modeling for Knowledge Management Systems,” in User Modeling 2003, vol. 2702, P. Brusilovsky, A. Corbett, and F. de Rosis, Eds. Berlin, Heidelberg: Springer Berlin / Heidelberg, 2003, p. 148.
[11] M. L. Voight and Hoogenboom, “Publishing your work in a journal: understanding the peer review process,” Int J Sports Phys Ther, pp. 452–460, Oct-2012.
[12] M.-H. Caillol, “Political anticipation: observing and understanding global socio-economic trends with a view to guide the decision-making processes,” Int. J. Gen. Syst., vol. 41, no. 1, pp. 77–90, Jan. 2012.
[13] “Megatrends-The megatrends, what are they and how are they affecting yo…,” Jun-2015. .
[14] G. Zyskind, O. Nathan, and A. Pentland, “Decentralizing Privacy: Using Blockchain to Protect Personal Data,” in Security and Privacy Workshops (SPW), 2015 IEEE, 2015, pp. 180–184.
[15] J. Goyvaerts and S. Levithan, Regular Expressions Cookbook: Detailed Solutions in Eight Programming Languages. O’Reilly Media, Inc., 2012.
[16] R. Verborgh and M. De Wilde, Using OpenRefine: the essential OpenRefine guide that takes you from data analysis and error fixing to linking your dataset to the web. Birmingham: Packt Publ, 2013.
[17] M. Abadi et al., “TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems,” ArXiv160304467 Cs, Mar. 2016.

Télécharger cet article au format PDF ou ePub