制造商套件提供DIY人工智能

文章作者:Brian Dipert

谷歌声称,通过这款DIY工具,你可以“构建能看、能说、能理解的智能系统”。

前三个条目在我的"2020年:未来一年的消费电子预测这篇发表于今年1月的文章,都与深度学习有关。为什么?以下是我当时写的部分内容:

模式匹配和从已经识别的数据(“训练”)推断到尚未识别的数据(“推断”)的能力已经改变了当今许多算法的开发方式,对许多应用程序产生了影响。

这种转变已经在顺利进行中,即使是随便阅读一下发表在经济日报EE倍其他地方也会弄清楚。不要惊慌:仍然有时间“赶上浪潮”,特别是如果您的重点是资源受限的实现。但你可不想等太久,以免自己被困在水里,而更有远见的同事们已经在海滩上享受人工智能“派对”了。

所以哪里开始?的re’s plenty of low-cost hardware out there feasible for implementing deep learning training and (especially, along with being your likely implementation focus) inference, as well as plenty of open source (translation: free) and low-priced software, some tied to specific silicon and other more generic. Tying the two (hardware and software) together in a glitch-free and otherwise robust manner is the trick; select unwisely and you’ll waste an inordinate amount of time and effort wading through arcane settings and incomplete (and worse: incorrect) documentation, trying to figure out why puzzle pieces that应该配合完美

这就是谷歌的AIY(代表"Artificial-Intelligence-Yourself,即“DIY”(Do-It-Yourself)。项目套件进来。他们有针对性主义者和专业人士的目标:在谷歌自己的话语中,“与我们的制造商套件,建立看到,说话和理解的智能系统。然后开始修补。把事情分开,更好地让事情变得更好。看看你可以解决的问题。“虽然包括在每个套件中包含的硬件和软件可能与您在自己的设计中最终使用的内容时可能与您的初始学习曲线有关,但您将“的基本原理”万博投注网址心意相通,你会一直使用它们,并继续使用它们。让人想起谷歌的DIY AR和VR头盔,低成本的纸板主导了底盘建筑材料套件。和Github是他们常用的软件库

声音设备

谷歌AIY语音工具包的照片

谷歌AIY语音套件的照片

当我在1月份写回来时,“图像像素的集群不是深入学习擅长模式匹配的唯一事情。音素和其他音响单位怎么样?“谷歌描述了这种方式:“与Google Assistant内置的智能助手建立了一个可以理解您的智能扬声器,并在您提出问题或告诉它做某事时回复。创建自己的项目,使用语音识别来控制机器人,音乐,游戏等。“

我在2017年8月下旬,我将从Micro Center预先订购我的语音套件;两个月后,它变得可供拾取。我的是v1版本

谷歌AIY语音套件组件的照片

v2的继任者如果你今天就买一个的话,你很可能会得到它,它有更多的功能:

谷歌AIY语音套件版本2的照片

版本2谷歌AIY语音套件组件的照片

覆盆子π我必须用v1套件提供给自己的SD卡(micro SD in v2)包括在更新的套件发行版中,尽管您仍然需要提供自己的USB电源适配器。从方便的角度来看,这种全面性的增强当然是很好的,尽管有一个相关的价格上涨;我的24.99美元,而V2套件贵重30美元比起那个来说。另一条票据熊提到;开箱即用的声音套件利用谷歌为中心的助手和语音API,虽然可以升级软件套件,或者(或者另外,如果您更喜欢)运行以边缘为中心(因此能够离线)TensorFlow框架

视觉工具

照片的谷歌AIY视觉工具包包装

谷歌AIY视力工具包的照片

我的V1语音套件进来一个月后,我为其预先订购了v1视觉工具兄弟姐妹:

照片的谷歌AIY视觉套件组件

踩回一瞬间,这里深入学习的机会是什么?在我之前的一点上建立图像像素的集群不是深入学习擅长模式匹配的唯一事情,这是我在1月份写回来的东西:

计算机视觉是第一个学科热情地拥抱深度学习,并有充分的理由:传统的算法开发是乏味的和狭窄的适用性,无法准确地处理等“问题”离轴对象视图,照明条件差,大气和其他扭曲和升华。此外,为识别一类对象而开发的算法往往需要从头重新编码,以便识别另一个对象类。

相反,在深度学习中,当您将一个足够大且具有鲁棒标记的数据集输入到一个训练例程中后,生成的深度学习模型能够鲁棒地识别同一类中的相似对象。需要扩大被识别的对象套件吗?用更多的数据增量地训练模型。即使您需要替换模型以交付足够的识别广度,底层框架也可以保持不变。

和它的Voice Kit的前身一样,Vision Kit现在以更全面的v2构建,虽然虽然有一个相关的价格上涨;我的是44.99美元,而较新的版本是比这个多55美元

谷歌AIY Vision Kit包的版本2的照片
谷歌AIY视觉套件组件版本2的照片

的覆盆子πZero WH (wireless, i.e. Wi-Fi-supportive) that I had to come up with by myself is now included, and notably (at least for the soldering-adverse) also includes a pre-installed header connector (therefore the added “H” suffix naming this time). Also in the box this go-around is the necessary树莓派摄像头模块v2(注意,如果你像我一样有一个v1工具包,包含的软件可以支持可选Pi NoIR相机模块v2你猜我第一次买的是哪个?)随着Voice Kit的发展,大容量存储格式从SD(不包括在内)转换为micro SD(包括在内)。但随着语音工具包的发展,你会仍然你需要拿出你自己的USB电源适配器(我猜他们假设我们大多数人已经有一个足够电流输出的电源适配器)。

处理器,协处理器和下一步

细心的读者在这一点上可能会感到困惑,这是可以理解的。考虑到视觉应用程序通常比语音应用程序对计算的要求更高,那么究竟为什么vision Kit是基于覆盆子PI零板,包含Broadcom BCM2835(集成一个32位的1 GHz的单核ARM1176JZF-S CPU和VFPv2 FPU不支持氖指令集)而v1语音工具是基于一个覆盆子π3板包含BCM2837(集成一个64位的1.2或1.4 GHz四核手臂Cortex-A53,和NEON-supportive VFPv4 FPU) ?

部分答案是,谷歌似乎过度估计了语音套件的处理要求,尽管V2套件的过渡到本机Tensorflow支持可能也是一个因素。V2语音套件,就像它的视觉套件兄弟姐妹一样基于含有BCM2835的树莓派零;两个版本的Voice Kit都包括一个补充的硬件板(the声音的帽子v1中更小声音盖但是它们的硅含量主要包括dac、adc、麦克风前置放大器、扬声器放大器等。

然而,谈论骨架,视觉套件中的补充硬件显着更大。的视觉阀盖两个Vision Kit版本的共同之处是基于Movidius(现在的英特尔Movidius) Myriad 2 (MA2450)视觉处理器(VPU),从而增加了显著的(和深度学习中心,更不用说视觉优化)处理能力。

我的v1套件可能已经过时了,但它们仍然很好用(虽然很尴尬,自从我第一次得到它们到现在已经3年了,我仍然没有使用它们,忙,你也不知道)。相信我;我真的仍然计划在这两种情况下这样做,可预测地为未来的博客文章提供大量的饲料。而你幸运的人足以让你的手升级的v2硬件不需要等待我的领导;随意将手 - (和眼睛和耳朵)张贴在评论中的声音和视觉套件的印象!

- - - - - -布莱恩Dipert是Edge人工智能与视觉联盟的总编,也是BDTI的高级分析师和公司在线通讯InsideDSP的总编

本文最初发表于经济日报

相关文章

留下你的评论