présenté par Massimo Martucci et Robert Anderson
Aujourd'hui, les sources de données ne cessent de se multiplier, suscitant l'intérêt pour une nouvelle catégorie de méthodes d'analyse des données. En fonction de votre situation de départ, ces méthodes s'appellent le big data, l'intelligence artificielle, la science des données, l'apprentissage automatique, le data mining, la modélisation prédictive et l'industrie 4.0. Elles ont été conçues pour extraire un maximum d'informations utiles des données en vue d'améliorer la prise de décisions, sans frais supplémentaires et sans intervention humaine ou presque.
Toutefois, en dépit des annonces faites par les partisans de ces méthodes, de plus en plus d'études révèlent qu'il est difficile d'en retirer les bénéfices annoncés. Dans son best-seller Weapons of Math Destruction, l'auteure Cathy O’Neil remarque que la combinaison de grands jeux de données et d'analyses sophistiquées a souvent eu des conséquences négatives imprévues. S'il est vrai que les nouvelles méthodes sont performantes – et que plus il y a de données, mieux c'est –, elles ne sont pas infaillibles.
Selon Cathy O’Neil, les méthodes modernes d'analyse des données doivent tenir compte des conditions dans lesquelles les données ont été collectées, ainsi que de l'objectif poursuivi. Les erreurs d'analyse du big data sont généralement dues à l'omission des règles fondamentales d'analyse des données connues depuis des décennies, comme le fait de porter une attention particulière à la qualité des données.
Dans cette vidéo, les intervenants s'appuient sur des études de cas pour aborder les problèmes potentiels liés à l'exploitation des nouvelles méthodes d'apprentissage à partir d'un plus gros volume de données. Ils expliquent la nécessité de comprendre les limites des données, présentent des méthodes pour les contourner et partagent leur expertise du métier. Ils proposent aussi des solutions afin d'éviter les « fausses pistes », les pertes de temps/d'argent ou encore les mauvais choix.
Présenté en anglais