Javier Collado

Supermercados Piedra

Dobuss

CBN. Investigadores del Laboratorio de Informática e Inteligencia Artificial (CSAIL) del MIT (Masachusset Institute of Technology) afirman que mediante la Inteligencia Artificial se pueden analizar fotos de platos de comida y conocer sus ingredientes y recetas.

En un nuevo trabajo con el Qatar Computing Research Institute (QCRI), el equipo investigador programó un sistema de inteligencia artificial llamado Pic2Recipe para ver una foto de los alimentos y ser capaz de identificar los ingredientes y sugerir recetas similares.

«En el análisis informático, los platos y la comida en general son desconocidos porque no existen hasta ahora los conjuntos de datos a gran escala necesarios para identificar sus ingredientes», dice Yusuf Aytar, un postdoctorado del MIT que co-escribió un artículo sobre el sistema con el profesor Antonio Torralba. «Pero las simples fotos de platos que circulan en las redes sociales pueden proporcionar información valiosa sobre los hábitos de salud y las preferencias dietéticas».

El documento se presentará a finales de este mes en la conferencia de Visión y Reconocimiento de Patrones en Honolulu.

El estudiante graduado de CSAIL Nick Hynes es el autor principal de este proyecto de investigación junto a Amaia Salvador, de la Universidad Politécnica de Cataluña en España. Entre los coautores se encuentran el postdoctor de la CSAIL, Javier Marín, así como el científico Ferda Ofli y el director de investigación Ingmar Weber de QCRI.

Cómo funciona

La web ha impulsado un enorme crecimiento de la investigación en el área de clasificación de los datos alimentarios, pero la mayoría de ellos ha utilizado conjuntos de datos mucho más pequeños, lo que a menudo conduce a grandes lagunas en el etiquetado de los alimentos.

En 2014, los investigadores suizos crearon el conjunto de datos «Food-101» y lo utilizaron para desarrollar un algoritmo que pudiera reconocer imágenes de alimentos con un 50 por ciento de precisión. Las iteraciones futuras sólo mejoraron la precisión hasta aproximadamente un 80 por ciento, lo que sugiere que el tamaño del conjunto de datos puede ser un factor limitante.

Incluso los conjuntos de datos más grandes a menudo han estado limitados por la forma en que generalizan entre  poblaciones. Una base de datos de la Universidad de la Ciudad de Hong Kong tiene más de 110.000 imágenes y 65.000 recetas, cada una con listas de ingredientes e instrucciones, pero sólo contiene cocina china.

El proyecto del equipo de CSAIL pretende construir una base de información global y universal referida a todos los países del mundo.

Los investigadores rastrearon sitios web como All Recipes y Food.com para desarrollar «Recipe1M», una base de datos de más de 1 millón de recetas que fueron registradas con información de los ingredientes de una amplia gama de platos.

A continuación, utilizaron esos datos para formar una red neuronal con la que encontrar patrones y hacer conexiones entre las imágenes de los alimentos y los ingredientes y recetas correspondientes.

A partir de la foto de un alimento, Pic2Recipe podría identificar ingredientes como harina, huevos y mantequilla, y luego sugerir varias recetas similares a las imágenes de la base de datos.

«Esto podrá permitir que cada persona pueda investigar y decidir su nutrición diaria, o fotografiar platos en un restaurante y saber lo que se necesita para prepararlos en casa más tarde», dice Christoph Trattner, profesor asistente en MODUL University Vienna en el New Media Technology Department, que no estuvo involucrado en el trabajo. «El enfoque del equipo funciona a un nivel similar al del juicio humano, lo cual es notable».

El sistema lo hizo particularmente bien con los postres como galletas o la bollería, puesto que este sí era un capítulo principal en la base de datos. Sin embargo, tuvo dificultad para determinar ingredientes para alimentos más particulares, como rollos de sushi y batidos.

En el futuro, el equipo espera poder mejorar el sistema para que pueda entender los alimentos con más detalle. Esto podría significar ser capaz de inferir cómo se prepara un alimento o distinguir diferentes variaciones de alimentos.

Los investigadores también están interesados ​​en desarrollar potencialmente el sistema de un «ayudante de la cena» que podría sugerir qué cocinar dada una preferencia dietética y una lista de artículos para comprar y tenerlos listos en la nevera.

«Esto podría ayudar a las personas a saber qué contiene cada alimento cuando no tienen información nutricional explícita», dice Hynes.

El proyecto ha sido financiado en parte por QCRI, así como por el Fondo Europeo de Desarrollo Regional (FEDER) y el Ministerio de Economía, Industria y Competitividad.