量子位 宣布 | "大众年夜众号 QbitAI

一只手势识别AI,若何才算得上 (优) 秀啊?

一直地变换姿势,都能实时输出Emoji,大约是很秀了:

是守卫 (误) ,是来自《星际旅行》瓦肯的举手礼。
不大常用,做起来乃至有难度。

推特28万赞比个手势AI就能识别出Emoji浏览器上跑已开源

是好运,一样平常会两只手一起比。
不过,也不是人类通用的手势。

即便这样,AI依然机警地识别出来。
并且,它是在浏览器上跑,也险些没有延时。

AI的爸爸,名字叫Nick Bourdakos (简称“尼克”) ,是来自IBM的程序猿。

尼克把自己的调教成果发了推特,揽下2.8万赞:

△ 666

尼克用的是TensorFlow.js,实时识别毫无压力。

他把算法开源了,说大家都可以试一试。

半小时就好

尼克说这个模型很大略,便是SSD-MobileNet。

MobileNet是分类,SSD是目标检测,搭配食用也是常规方法。

他是用IBM云上的GPU演习的,免费的k80,半小时就演习好了。

在演习开始之前,要先准备数据:AI吃的是标注过的手势图。

准备就绪,就来安装模型吧:

1$ npm install -g cloud-annotations

然后,可以开始演习了:

1$ cacli 2┌─────────────────────────────┐ 3│ (C)loud (A)nnotations (CLI) │ 4│ version 1.0.12 │ 5└─────────────────────────────┘ 6 7Usage: cacli <command> 8 9where <command> is one of:10 init Interactively create a config.yaml file11 train Start a training run12 logs Monitor the logs of a training run13 progress Monitor the progress of a training run14 list List all training runs15 download Download a trained model1617cacli <cmd> -h quick help on <cmd>

当然,也不是非要用IBM云,也不是非要用GPU。
拿CPU也能调教AI,大概要几小时吧。

演习完成,该在浏览器上跑了。
GitHub项目里,自带了转换为TensorFlow.js模型的脚本。

把模型添加到React App里面。

末了,写一句nmp start,用浏览器打开http://localhost:3000。

耶,这样就可以对着屏幕随意舞动手指了,你的AI会明白的:

当然,这只机警的AI,才不是只能识别手指。

喝点什么

只看你用什么样的数据去投喂AI了。

曾经,尼克就帮AI修炼了分辨汽水的目光。

第一题:一瓶雪碧,一瓶Canada Dry,都是绿色。

不管调换位置、还是侧过瓶身,AI都不会被迷惑。
定格一看:

第二题:加大难度,两瓶都是Mountain Dew,一瓶普通一瓶低糖。

AI依然分得清楚,绝不犹豫。

分辨手势,分辨汽水,都不失落水准。

那么问题来了,你想让AI识别什么呢?

想好了就开始调教吧,代码在这里:

https://github.com/cloud-annotations/training/

P.S. 推特评论区,已经有小伙伴亲测成功,并表示Easy。

△ 再把识别结果,显示成Emoji就完美了

— 完 —

诚挚招聘

量子位正在招募编辑/,事情地点在北京中关村落。
期待有才华、有激情亲切的同学加入我们!
干系细节,请在量子位"大众年夜众号(QbitAI)对话界面,回答“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技能和产品新动态