AI在可穿戴设备上对饮食评估的帮助

算力智库
关注

3. ebutton数据集:一周数据集

实验是通过一名志愿者在白天连续戴着一个电子按钮一周,记录下各种现实生活活动。首先,电子按钮对图像序列进行采样(10秒一次)。然后使用Picasa软件检测到人脸,并在发送给观察者之前筛选出可能存在隐私问题的图像,并按照上一个案例中描述的方式对图像进行注释。完成这些步骤后,获得29515张图像。这些图像最后由人工智能软件(Clarifai CNN)处理,为每个图像生成20个标签。

图二(图片来源:PHN)

原文作者定义了一个负担指数来表示总阳性图像的数量和所有图像的数量之间的比率。

阀值k是该算法中的一个可调参数。较小的k会导致跟高的灵敏度,但也会带来更高的负担。当k=1时,37.8%的总图像需要进一步检查,这对研究人员来说可能是太大的负担,尽管总灵敏度高达89.5%。当k=2时,总负荷降低到18%,敏感性为74.0%,特异性为87.0%。第1天和第6天的敏感性显著低于其他两天。在提取了所有的假阴性图像后,可以发现第一天的354个“饮料”图像中,有206个由于黑暗环境和小咖啡杯而被丢失,而在第六天的154个进食图像中,有78个由于过度曝光的图像和食物面积太小的图像而被丢失。

图三(图片来源:PHN)

可穿戴设备所采集数据挑战

实验结果表明,人工智能算法在food-5K和ebutton数据集上都取得了很好的效果。但是,Food-5K数据集的性能更好。这种差异可能有三个原因。

首先,如果在电子按钮佩戴者移动时记录图像,则无法避免图像模糊。在应用ebutton数据集应用算法上有约17.7%的图像是模糊的。

第二,在一些图片中,食物只覆盖了图片中很小的一部分,尤其是在饮酒的时候。在为期一周的数据集中,佩戴者有时在阅读或做电脑工作时吃喝,因此食物摆放在盘子位于图像的角落。

第三,与food-5K数据集相比,由于在ebutton的数据是由广角摄像机和被动图像捕获,因而图像中包含更多的对象。这使得检测任务更具挑战性。

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存