Le machine learning va-t-il changer notre rapport à la nourriture ?

Même les ordinateurs n’arrivent pas à quantifier ce que nous mangeons.

|
05 avril 2016, 7:00am

Il est maintenant admis que pour manger mieux, à la fois en termes quantitatifs et en termes qualitatifs, il faut surveiller ce que l'on avale en permanence. C'est la raison pour laquelle les régimes fonctionnent, du moins dans les premiers jours/semaines de restriction. Il y a de grandes chances pour que le dernier régime à la mode ait un effet positif, simplement parce que la personne concernée accorde d'avantage d'attention à ce qu'elle absorbe. Le seul fait de se concentrer sur le choix et l'ingestion de nourriture suffit souvent à adopter des habitudes alimentaires plus saines.

Pourtant, d'ordinaire, on attribue la perte de poids au régime, et non à la discipline personnelle.

Il n'est pas facile de faire vraiment attention à ce que l'on mange. Même si les produits alimentaires sont désormais bardés de tableaux nutritionnels et que le marché regorge d'application sensées nous aider à noter nos repas en détails, il reste très pénible d'analyser la manière dont nous nous nourrissons. Êtes-vous seulement capable de dire ce que vous avez mangé il y a trois jours ?

Les chercheurs en sciences de la nutrition de l'Université Tufts, en collaboration avec des ingénieurs du MIT, ont imaginé une nouvelle solution pour archiver ces informations. Leur système, encore à l'état de prototype, a été présenté la semaine dernière à la Conférence Internationale IEEE. Il exploite à la fois le domaine du traitement du langage naturel et celui du machine learning : l'idée est de prendre la description approximative d'un repas, énoncée par un utilisateur, et de la convertir en information nutritionnelle précise exploitable dans un cadre informatique.

Le premier défi à relever pour mettre au point un système de ce genre est celui du traitement automatique du langage naturel en général : rendre le langage humain intelligible pour une machine est très difficile. Au minimum, le système doit pouvoir extrapoler à partir d'une expression, « glace » par exemple, pour déterminer si l'utilisateur a mangé de la crème glacée ou de la crème recouverte de glace. Comprendre que ce même utilisateur a mangé un bol de nourriture, et non le bol lui-même, n'est déjà pas si aisé pour le pauvre programme informatique.

Ce dernier doit ensuite tirer des informations nutritionnelles des déclarations sibyllines de l'humain. Les chercheurs se sont donc tournés vers Amazon Mechanical Turk, qui leur a permis de collecter plus de 10 000 descriptions de repas effectuées par les employés du service. Chaque description comprend les éléments du repas assortis d'information sur les aliments, comme la marque et la quantité. Les chercheurs ont utilisé ces données pour entrainer leur système.

Le système ainsi éduqué a été en mesure d'analyser une description orale de repas, et de lui attribuer des étiquettes relatives au type d'aliment, à la marque, à la quantité consommée, etc. À partir de là, il lui suffit d'examiner les informations nutritionnelles publiques dans la bases de données de l'USDA ou de Nutritionix.

L'ingénieur du MIT, James Glass, avertit que le système n'est pas encore parfait et qu'il n'est pas près d'apparaître sur l'AppStore ou sur Google Play. « La reconnaissance automatique de la parole n'est pas capable de prendre en compte la spontanéité, les particularismes et les imperfections du langage humain, » explique-t-il à IEEE Spectrum. « C'est la direction que nous prenons, mais nous n'en sommes pas encore là. »