伊恩·马辛哈姆:AWS向物联网及人工智能领域持续加码

keithyau 2019-10-25

实际上,AWS对技术及市场的发展趋势一直保持着敏锐的洞察,为了不断满足客户的各类需求,AWS专注于技术研发创新,其产品以及服务也在不断丰富,仅 2018 年一年就推出了1957项全新的功能和服务。与此同时,AWS云服务覆盖全球, 已拥有22 个地理区域和 69 个可用区,未来还将继续在开普敦、雅加达和米兰等地陆续推出新区域,这使AWS获得了来自中国的出海企业以及全球化业务企业的青睐。

从AWS近期发布的新产品以及市场动作来看,AWS正在向物联网、人工智能两大领域持续加码。

伊恩·马辛哈姆:AWS向物联网及人工智能领域持续加码
AWS副总裁(全球技术与开发者布道师团队)伊恩·马辛哈姆(Ian Massingham)

构建完备的AWS IoT平台

目前为止,AWS已拥有包含数据服务、控制服务、设备软件在内完备的IoT平台。在数据服务领域,有AWS IoT Events、AWS IoT SiteWise、AWS IoT Analytics;在控制服务领域,有AWS IoT Things Graph、AWS IoT Device Management、AWS IoT Device Defender、AWS IoT Core等;在设备软件领域,有AWS IoT Greengrass、Amazon FreeRTOS、AWS IoT Device SDK以及AWS IoT Device Tester等。除此之外,AWS还有专门的运行时软件,支持开源设备,为边缘设备提供操作环境。

伊恩·马辛哈姆介绍了其中三款新的物联网服务。

  • 其一是AWS IoT Device Management设备管理服务,它能管理数量庞大的物联网设备,客户可以轻松而且安全地大规模注册、组织、监控和远程管理 IoT 设备,还可以扩展队列,并减少管理大规模部署的各种 IoT 设备的成本和工作量。
  • 其二是AWS IoT Device Defender,也就是IoT设备的安全管理,它使客户能够轻松维护和执行IoT配置,例如确保设备身份、对设备进行身份验证和授权以及加密设备数据,并不断审核您的IoT配置,以确保设备与其他设备和云通信时的信息安全。
  • 其三是AWS IoT Analytics,能够对大量物联网数据轻松地进行复杂的分析,无需担心构建物联网分析平台通常会产生的所有成本和复杂性。Analytics十分简单易用,可以让客户针对 IoT 应用程序和机器学习使用案例做出更好、更准确的决定。

与此同时,AWS也在积极地与生态系统方面的合作伙伴展开合作。在AWS技术峰会深圳站,AWS正式宣布将在深圳建立大中华区第二个物联网实验室,该实验室由具有物联网专业知识的跨界工程师和解决方案架构师组成,使用AWS全套超过165项云服务,协助APN合作伙伴和客户完成硬件认证、应用开发、测试及端到端解决方案部署等各类项目。

另外,伊恩·马辛哈姆着重提到了 AWS IoT Greengrass,可将本地计算、消息收发、数据缓存、同步和 ML 推理功能连接至边缘设备。Greengrass可以视为一种边缘运行时,可以将多个边缘设备以联邦的方式做成边缘的设备流,实现这些边缘设备的泛自主运行。Greengrass提供预构建的连接器,集成高质量测试工具,支持安全通信,因此客户无需编写代码即可轻松扩展边缘设备功能,还可降低运行 IoT 应用程序的成本。

在AWS云上交付机器学习能力

人工智能给人们的生活带来巨大改变,无论是对AWS还是亚马逊,人工智能都是一项非常具有战略性的技术。亚马逊使用机器学习技术已有20余年,目前亚马逊所招聘的职位中,有许多都与机器学习技术相关,其对AI的重视程度可见一斑。

伊恩·马辛哈姆提到,在人工智能领域,AWS从机器学习框架与基础设施、机器学习服务、AI服务三个层面将其做成普适化的服务提供给数据科学家以及开发人员。

伊恩·马辛哈姆:AWS向物联网及人工智能领域持续加码

在机器学习框架和基础设施层:

  • 一是提供机器学习所需的底层基础设施。例如AWS的EC2、S3等一系列高性能实例,内置了像英伟达高性能芯片在内的芯片级加速的硬件,可用于深度学习、机器学习所需要的大规模模型训练。
  • 二是支持所有主流的人工智能框架。AWS针对业界流行以及广泛使用的人工智能框架进行优化,例如针对Tensorflow进行框架服务资源打包、容器化,数据科学家以及开发者可以直接通过 AWS Deep Learning AMI 在云中使用TensorFlow和其他深度学习框架。
  • 三是在推理层面,AWS发布了弹性推理Amazon Elastic Inference,实现将部分调用的GPU资源用到通用实例上,而无需去使用那些高配的实例,从而在获得同等 GPU 性能的同时,可将推理方面的成本节约高达75%。

此外,AWS计划将于2019年底发布定制化的高性能机器学习专用推理芯片AWS Inferentia,专门用于部署带有GPU的大型AI模型,Inferentia将与TensorFlow和PyTorch等主要框架协同工作,并与EC2实例类型和亚马逊的机器学习服务SageMaker兼容。将Inferentia放在Elastic Inference之上,预计能够将成本降低至原有的十分之一。

在机器学习服务层:

Amazon SageMaker内置高性能算法与框架,提供自动数据标签和强化学习服务等多种服务能力,帮助客户在生产环境中使用一系列的工具,例如使用定制化的数据集来训练机器学习模型。SageMaker支持一键式训练和一键式部署,真正实现将机器学习能力带给每一位开发人员,目前SageMaker已有一万多家企业级用户。

在AI服务层:

相关推荐