Point chaud / en émergence Tendances sociétales

Opacité des Big Data et nouveau domaine de formation : l’« algorithmisme »

Un blogueur du Monde, Hubert Guillaud, présente un livre  publié récemment : Big Data : une révolution qui va transformer notre façon de vivre, de travailler et penser (le site dédié) de Viktor Mayer-Schönberger, professeur à l’Oxford internet Institute, et Kenneth Cukier, responsable des données pour The Economist.

Pour les auteurs, les Big Data créent une intelligence artificielle qu’aucun humain ne peut comprendre.  Mais plus encore, à les lire, résonne (sic) les propos de Lawrence Lessig, sur le code fait loi, qui nous expliquait que c’était le code qui régulait le cyberespace. Et qui nous disait aussi qu’à mesure que le code change, la nature du cyberespace change. Et c’est bien ce qui est à l’œuvre avec les Big Data. Si jusqu’à présent nous pouvions, la plupart du temps, accéder au code source et donc mesurer ce qui était pris en compte, c’est de moins en moins le cas, et cela risque de le devenir toujours moins avec les Big Data.

[…]

À l’heure des algorithmes, des APIs et des Big Data (c’est-à-dire des traitements, des croisements et des vastes ensembles de données), le code, qui était le fondement d’internet, se complexifie. Il n’est plus la loi, comme nous l’avait appris Lawrence Lessig. Il ne se régule plus par la transparence. On ne peut plus regarder le code source de Google Translate pour en comprendre le fonctionnement. Et c’est d’autant plus vrai à mesure que les données, les croisements et les traitements se démultiplient, se complexifient et s’imbriquent. Et l’une des conséquences est bien le changement de l’internet tel que nous le connaissions.

“Les Big Data fonctionnent à une échelle qui dépasse notre compréhension ordinaire. Par exemple, la corrélation que Google a identifiée entre une poignée de termes de recherches et la grippe est le résultat du test de 450 millions de modèles mathématiques. Par contraste Cynthia Rudin (responsable du Predictics Lab du MIT, NDE) avait initialement conçu 106 indicateurs pour savoir si une bouche d’évacuation pouvait prendre feu pour expliquer aux gestionnaires de Con Edison (la société qui fournit l’électricité, le gaz et la vapeur à plus de 3 millions de clients à New York, NDE) comment son programme d’inspection de sites prioritaires fonctionnait. “L’explicabilité”, comme on l’appelle dans les milieux de l’intelligence artificielle, est importante pour nous mortels, qui ont tendance à vouloir comprendre pourquoi et pas seulement comment. Mais que faire si au lieu d’avoir 106 indicateurs, le système en générait 601, et si la grande majorité avait une faible pondération, mais si, pris tous ensemble, ils amélioraient la précision du modèle ? La base de toute prédiction peut devenir incroyablement complexe. Comment aurait-elle pu alors l’expliquer aux décisionnaires et les convaincre de réaffecter leurs budgets limités ?

Ces scénarios, nous permettent de voir que les prédictions issues des Big Data, des algorithmes et des ensembles de données derrière eux, vont devenir des boîtes noires nous offrant ni responsabilité, ni traçabilité ou confiance. Pour éviter cela, les Big Data vont nécessiter une surveillance et une transparence, qui a leur tour va nécessiter de nouvelles formes d’expertises et d’institutions. De nouveaux acteurs vont être appelés à fournir un soutien dans les domaines où la société aura besoin d’examiner des prédictions issues des Big Data et permettre aux personnes qui se sentent lésées par elles de demander réparation.

En tant que société, nous avons souvent vu ces nouvelles entités apparaître lorsqu’une augmentation spectaculaire de la complexité et de la spécialisation dans un domaine particulier produisait un besoin urgent de spécialistes pour gérer ces nouvelles techniques. Des professions comme le droit, la médecine, la comptabilité et l’ingénierie ont subi ces transformations il y a plus d’un siècle. Plus récemment, des spécialistes de la sécurité informatique et la vie privée sont apparus pour certifier que les entreprises se conforment aux meilleures pratiques établies par des organismes comme l’Organisation internationale de normalisation (qui a été lui-même lancé pour répondre à un nouveau besoin de lignes directrices dans ce domaine).

Les Big Data vont nécessiter un nouveau groupe d’experts pour assumer ce rôle.”

Et Mayer-Schönberger et Cukier d’en appeler à la naissance d'”algorithmistes”… Des spécialistes capables de comprendre les données pour contrôler les entreprises de l’extérieur comme de l’intérieur – “tout comme les entreprises disposent en interne de comptables et d’auditeurs externes pour surveiller leurs comptes.”

Guillaud continue son article en abordant d’autres questions soulevées par les auteurs du livre, dont

  • les corrélations, qui prennent le pas sur la causalité;
  • la vie privée, qui est de plus en plus difficile à protéger et qui est menacée par la dictature des données, laquelle pourrait conduire à des abus en termes de justice prédictive;
  • la prévention des risques par la prédiction de leur potentiel;
  • la responsabilité des impacts de la réutilisation des données.

Selon Guillaud, [c]e livre est intéressant à plus d’un titre, mais avant tout pour ce qu’il nous apprend du changement du monde en cours. Riche d’exemples, facilement accessibles, il dresse un état compréhensible des enjeux des Big Data en insistant notamment sur ce que cette nouvelle étape de l’informatisation transforme.

Source : Guillaud, Hubert.  Big Data : nouvelle étape de l’informatisation du monde.  MBlogs.  Le Monde.  24 mai 2013.

 

 

 

 

Rapport des jeunes à Facebook: transparence et exode?
Interne: le service à la communauté comme une tendance mondiale
+ posts

À propos de l'auteur

Sonia Morin

1 commentaire

Répondre à Jean-Sébastien Dubé X