Tech Days 2013 – Session plénière du jeudi 14 février

Comme pour chaque session présentée par Bernard Ourghanlian, on passe plus de temps à écouter l’expression claire d’une pensée structurée plutôt qu’à prendre des notes pendant les hésitations de langage. Bref, pas beaucoup de notes sur cette session, mais en contrepartie, un lien vers un site professionnel, qui fait bien mieux que moi !

Quelques petits trucs qui m’ont fait tilter toutefois :

La “naissance numérique” (c’est à dire la première apparition d’une personne sur internet) est en moyenne à trois mois avant la naissance physique pour un bébé occidental.

Très intéressant de voir le graphique expliquant l’augmentation de valeur en avançant dans l’ordre “Signal – donnée – information – connaissance”.

CaptainDash : tableaux de bord à destination du marketing, avec pour but de simplifier le Big Data. Toute la session était très orientée Big Data. Personnellement, je pense qu’on aura à la fin le même échec que sur la BI, mais bon… visiblement, dans certains cas bien précis, ça amène de bons résultats. Un peu comme la BI quand on prend soin de réfléchir au lieu de faire confiance aux outils.

C’est la toute la schyzophrénie de Big Data : “les outils puissants vont vous permettre de trouver une aiguille dans une botte de foin en moins de deux”, mais en même temps, “attention à mettre en place une bonne équipe de data-scientists pour avoir des résultats”. Bref, autant embaucher des statisticiens avec les outils qu’ils maîtrisent et qui n’auront pas besoin de 50 machines dans le Cloud pour établir que la corrélation entre les commentaires sur Twitter et les ventes d’un produit sont absolument nulles.

Exemple de machine learning sur recommandation films par les commentaires : bien, mais encore une fois, c’est l’UI qui était très bien faite, et le moteur de classification derrière peut très bien être réalisé par un développement ad hoc avec un bon ingénieur orienté data plutôt que de mettre en branle une armée de bécanes.

Criteo montrait son système de création de messages publicitaires à la volée en fonction de données accumulées sur les sites de commerce, réseaux sociaux, etc. Techniquement, c’est fort. Mais le problème est le même que sur des indicateurs. Quand un indicateur est contestable, que font la majorité des entreprises ? Elles rajoutent des indicateurs, ou les rendent encore plus composites, persuadées par des années de discours sur la BI que le manque de qualité vient du fait que le cube de 100 To n’est encore pas assez gros… Alors que le souci vient du fait qu’il est déjà trop composite, et donc pas assez aligné avec une réalité métier. Il faut au contraire avoir des indicateurs les plus simples possibles pour qu’ils soient incontestables, et permettent donc une vraie analyse.

La réaction de la personne de Criteo montre bien qu’ils sont partis dans une même approche “aveuglement par la technique” que la BI : il proposait à la fin de son discours de rajouter des critères supplémentaires pour cibler encore plus la publicité, “en fonction de la météo, par exemple”. Et pourquoi pas de l’orientation des manchots, l’an prochain ? Quand on voit les erreurs fondamentales qu’ils arrivent à réaliser avec leur mode actuel, ils feraient mieux de régler ce qui est déjà utilisé dans leur calcul. Exemple : depuis que les publicités ciblées ont trouvé qu’il y avait une forte corrélation entre moi et la performance en .NET, je passe mon temps à voir de la pub sur mon propre livre ! Je comprends bien que ce cas très particulier ne peut pas être pris en compte, mais pour rester dans du général, j’ai également regardé un jour les objectifs Nikon sur un site de commerce (sans aucune intention d’acheter, par pure curiosité), et depuis, je ne peux pas regarder une page sur internet sans qu’on me matraque une promo sur un objectif Nikon. C’est sur ce genre de choses que Criteo devrait réfléchir avant d’inclure la météo dans ses modèles…

Projet A-brain avec INRIA et KerData : déjà vu dans la session sur les 10 projets Azure, donc je ne détaille pas plus ici.

On apprend que Kinect est basée sur le machine learning : c’est un moteur d’apprentissage de la reconnaissance de 50 points constitutifs du squelette sur une image qui est embarqué dans le device, et qui permet de garder une bonne performance.

On finit avec une balade dans l’univers par gestes, ce qui est très révélateur de la puissance que Kinect peut avoir pour des manipulations immersives.

About JP Gouigoux

Jean-Philippe Gouigoux est Architecte Logiciel, MVP Connected Systems Developer. Il intervient régulièrement à l'Université de Bretagne Sud ainsi qu'à l'Agile Tour. Plus de détails sur la page "Curriculum Vitae" de ce blog.
This entry was posted in Retours and tagged . Bookmark the permalink.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Captcha Captcha Reload