AI在可穿戴设备上对饮食评估的帮助

算力智库
关注

饮食评估可以帮助人们监督管理饮食,帮助人们科学摄入。近年来,智能手机和一些可穿戴设备可以达到一定的效果,但无论从便捷度、隐私性、数据负担上,都有一定的缺陷。AI图像分类不仅能有效解决这些问题,还可以在饮食数据库中检索出有关食物营养和能量含量的信息。

本文编译自公共健康营养近期的一篇同行审阅文章,由Thomas等学者共同执笔。

算力观点

人工智能技术可以从低像素、可穿戴相机中获取真实图像,从中自动检测食物。现阶段数据的准确度也十分高,同时这个技术减少了数据处理负担和隐私问题,对研究饮食评估等应用方面打下了坚实的基础。

AI食物图像分类

近年来,通过智能手机拍摄饮食照片被用作为一种新的饮食评估方式。每盘食物在食用前后都必须主动拍照,这既不方便又不实用。这种方法也可能因为拍照过程而破坏正常的饮食习惯。因此,很难用这种方法进行长期的饮食评估。

由于可穿戴相机能够连续、自动地记录佩戴者面前的场景,人们借此开发在饮食研究方面的潜在应用,如The SenseCAM (由微软开发),the ebutton (由原文作者开发)。研究表明,借助可穿戴的照相机,不仅可以评估食物摄入量,而且可以研究饮食环境以及行为。然而,这样的方法既没有减少图像审查的负担,也没有减少人工处理引起的隐私问题。因此,运用AI食物图像分类从采集图像中检测食物的想法应运而生。

两种数据集在食物图像分类上的验证

1. Food-5k

Food-5K是一个公开数据集。原作者使用这个数据集来比较研究算法与现有研究的性能。在这组数据中,图像是由智能手机和手持相机而不是可穿戴设备采集的,大多数食物图像只包含一种食物,该数据集的分类相对容易。

对评估集的分类结果显示在表1中,使用不同的相似性度量(jaccard和dice)。标签字典是n 761的训练数据集构建的。由表1可以看出,当阈值设置为3(即k=3)时,用骰子相似性度量,总体准确度、灵敏度、特异性和精密度分别为98.7%、98.2%、99.2%和99.2%。我们注意到,错误分类的图像大多是困难的情况,即使是人类执行任务也很困难。

表1 (图片来源:PHN)

2. ebutton数据集:食品/非食品数据集

从电子按钮(包含一个微型相机和一个运动传感器)中采集的图像中选择了3900幅真实图像。这些图像的分辨率为640像素×480像素。在匹兹堡大学进行的两项实地研究中,12名参与者获得了一半的图像,包括950张食物图像和1000张非食物图像。另一半主要由18名实验室成员和合作者在日常生活或旅行中获得。

在这个实验中,首先从随机选择的电子按钮图像中建立了一本标签字典,包括不同的日常活动。这些图片中只有很小的一部分包含与食物相关的内容,因此本标签字典中只包含一些与食物相关的标签。为了使标签字典更适合研究,原作者建立了一本1253个标签的字典。由于这两组数据中的图像都是由不同的人单独获取的,因此进行了交叉数据集评估。结果如图一所示。可以看出,阈值k是决定分类结果的一个重要因素。当k=2时,敏感性和特异性均较高。这两种情况的总体准确度测量值分别为91.5%和86.4%。

图一(图片来源:PHN)

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存