返回 登录
1

【AI每日播报】三星发布AI助手 谷歌打造超速人工智能媲美人类

欢迎人工智能相关的技术投稿、约稿、行业分析、热点新闻、编译等,请发送邮件至baiyan@csdn.net,期待大家投稿。

资讯

加入人工智能大战 三星正式发布AI助手Bixby

在人工智能( AI )助手方面,苹果为用户提供了Siri ,微软提供了“小娜” ( Cortana ) ,谷歌提供了谷歌助理。现在,三星电子也正式推出了新款AI助手Bixby 。

几个月来,一直有推测称三星新款AI助手名为Bixby。现在,三星已经证实,Bixby确实是其AI助手的名字。三星在一份新闻稿中称,Bixby与市面上已经推出的许多语音助手有着“根本性不同”。

图片描述

三星称,Bixby的不同之处在于,它能够支持“几乎”所有通过触摸屏处理的应用任务。三星的这一设计也在情理之中,因为要想分清哪些是通过语音发出的命令并不容易。但是三星还表示Bixby能够支持“几乎”所有命令,这可能仍会造成一些混淆。
三星表示,Bixby支持的应用将更加注重语境,所以他们能够正确理解用户试图做什么,也能够理解和执行用户发出的语音指令,即便是用户不使用正确的语序发出完整命令。实际上,Bixby在需要时甚至可能会“提示用户提供更多信息”。三星将此称之为“认知容忍”(cognitive tolerance)。

三星将在3月29日发布下一代旗舰机。不出意外的话,新手机应该被命名为“Galaxy S8”。今年1月份时就有报道称,三星将在Galaxy S8的一侧为Bixby配备一个专用按键。三星现在也证实了这一点,该公司希望在用户使用Bixby时尽快为其调出语音服务。

谷歌正打造超速AI 能像人类一样快速学习

据Futurism报道,最近几个月,深度机器学习技术引发令人难以置信的喧嚣。广泛的能力让它们可以玩视频游戏、识别面部等,更重要的是可以自主学习,这让人们的恐惧不断加剧,担心它们将来可能完全接管世界。然而,这些系统的学习效率却不及人类的1/10。现在,谷歌开发出一款超速人工智能(AI),其学习效率几乎可与人类相媲美。

这种超速AI是谷歌位于英国子公司DeepMind开发的。他们表示,与以前的AI模式相比,这套系统不仅可吸收新知识,还能以更快的速度应用新的体验。很快,它的学习效率就能赶上人类水平。所谓深度学习,就是利用多层神经网络定位数据中的趋势或模式。如果一层神经网络确认某种模式,相关信息就会被传给下一层网络。这个过程会不断持续下去,直到所有信息被收集完成。

这套AI系统可基于不同的变量进行不同方式的学习,比如神经网络各层之间的连接强度。在某层的显著变化可能极大地改变信息在其他层的传递,或学习方式。深度神经网络有许多层,为此当出现变化时,学习过程可能需要相当长的时间。然而,Google DeepMind研究院亚历山大·普利特则尔(Alexander Pritzel)及其同事们似乎已经找到解决这个问题的办法,他们称其为“神经情景控制(neural episodic control)”。

中国“绝艺”世界围棋大赛夺冠

3月19日,第10届UEC杯世界电脑围棋大会决赛今日在东京落幕,腾讯AI Lab(人工智能实验室)研发的围棋人工智能程序“绝艺”(Fine Art)首次参加比赛便一路过关斩将,力压日本的DeepZenGo、法国的Crazy Stone,斩获冠军,取得了本次比赛的冠军。

UEC杯2007年始于日本,是最具传统和权威的计算机围棋大赛,每年邀请各国高水平AI齐聚东京比赛,促进相关学术及科技的交流。本届UEC杯共有来自中国、日本、韩国、美国、法国等国家的30个围棋AI参赛,是历届UEC比赛参赛“棋手”水平最高的一次。

据了解, “绝艺”英文名FineArt,名出唐朝诗人杜牧的《重送绝句》——绝艺如君天下少,闲人似我世间无。由腾讯AI Lab团队自主研发而成,涵盖了人工智能最热门的研究领域——深度学习和强化学习。“绝艺”的学习主要包括人类棋谱数据库和机器自对弈,它的算法基于策略网络与价值网络两大核心,并创新性地大幅提升了价值网络的精度,使其大局观表现更好

博世宣布与英伟达合作 共同开发人工智能自动驾驶系统

据福布斯3月15日报道,博世CEO沃尔克马尔·邓纳尔在一个主题演讲中宣布,与英伟达(NVIDIA)公司合作开发一款人工智能自动驾驶系统,同时还推出一款超级芯片Xavier。

据悉,英伟达和博世正在共同研发一款人工智能自动驾驶车用计算机,它基于英伟达的深度学习和先进的软硬件,帮助车辆学会并掌握如驾驶自动操作等复杂的操作。

博世人工智能汽车级计算机系统是基于下一代的英伟达DRIVE PX技术和人工智能车用超级芯片Xavier打造的,Xavier是全球首款单芯片处理器,能够处理大量的运算、应对自动驾驶车辆所必需的各类任务,包括:运行深度网络以应对周边环境,理解3D环境,采用高清地图进行车辆定位,预判其它目标的行为和位置、计算安全路径和车辆动态。

解读

深度学习在图像超分辨率重建中的应用

超分辨率技术(Super-Resolution)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。SR可分为两类:从多张低分辨率图像重建出高分辨率图像和从单张低分辨率图像重建出高分辨率图像。基于深度学习的SR,主要是基于单张低分辨率的重建方法,即Single Image Super-Resolution (SISR)。

SISR是一个逆问题,对于一个低分辨率图像,可能存在许多不同的高分辨率图像与之对应,因此通常在求解高分辨率图像时会加一个先验信息进行规范化约束。在传统的方法中,这个先验信息可以通过若干成对出现的低-高分辨率图像的实例中学到。而基于深度学习的SR通过神经网络直接学习分辨率图像到高分辨率图像的端到端的映射函数。

本文介绍几个较新的基于深度学习的SR方法,包括SRCNN,DRCN, ESPCN,VESPCN和SRGAN等。

实用指南:如何为你的深度学习任务挑选最合适的GPU?

深度学习是一个计算密集型领域,而 GPU 的选择将从根本上决定你的深度学习实验。没有 GPU,一个实验也许花费数月才能完成,或者实验运行一天却只关闭了被选择的参数;而一个良好稳定的 GPU 可让你在深度学习网络中快速迭代,在数天、数小时、数分钟内完成实验,而不是数月、数天、数小时。所以,购买 GPU 时正确的选择很关键。那么,如何选择一个适合你的 GPU 呢?这正是本篇博文探讨的问题,帮助你做出正确选择。

对于深度学习初学者来说,拥有一个快速 GPU 非常重要,因为它可以使你迅速获得有助于构建专业知识的实践经验,这些专业知识可以帮助你将深度学习应用到新问题上。没有这种迅速反馈,从错误中汲取经验将会花费太多时间,在继续深度学习过程中也会感到受挫和沮丧。在 GPU 的帮助下,我很快就学会了如何在一系列 Kaggle 竞赛中应用深度学习,并且在 Partly Sunny with a Chance of Hashtags Kaggle 竞赛上获得了第二名,竞赛内容是通过一个给定推文预测气象评分。比赛中,我使用了一个相当大的两层深度神经网络(带有两个修正线性单元和 dropout,用于正则化),差点就没办法把这个深度网络塞进我的 6G GPU 内存。

图灵测试寿终正寝,我们该如何评测人工智能?

在人们心中,艾伦·图灵的「模仿游戏」(一台机器作为被测试者试图说服一名人类测试者自己是人而不是机器)长久以来被认为是人工智能的终极测试。

图灵测试虽没有完全过时,但目前通过测试的 AI 借助的多是欺骗而不是真正的智能。人工智能专家宣称,是时候用一系列方法取代图灵测试了,这些方法可以全方位评估人工智能。

真正的智能机器应能够理解含糊不清的表述,把零件拼装成家具,通过人类四年级的科学考试,甚至更多。这些任务对于机器的困难程度充分证明:抛开炒作不谈,人类水准的人工智能依然遥不可及。

人工智能当心理医生,确定不会带人走入歧途?

随着人工智能不断的发展,也出现了一个热词叫做“人工智能+”,和互联网+一个概念,意思就是把人工智能运用到生活的各个领域,人工智能+汽车,人工智能+教育,作为人工智能的大头,百度还有人工智能+走失儿童,这标志着人工智能的逐渐成熟,在这些不断延伸的领域中,医疗也成为了人工智能的一个目标。

  • 手术机器人,“解放”医生吓哭病人
  • SmartStop戒烟设备,似乎是治标不治本
  • 人工智能当心理医生,确定不会带人走入歧途?

技术

TensorFlow架构与设计:图模块

计算图是TensorFlow领域模型的核心。本文通过对计算图领域模型的梳理,讲述计算图构造的基本原理。

本文主要分三个层面介绍了TensorFlow架构与设计:边、节点以及图。

Edge持有前驱节点与后驱节点,从而实现了计算图的连接,也是计算图前向遍历,后向遍历的衔接点。Node(节点)持有零条或多条输入/输出的边,分别使用in_edges, out_edges表示。另外,Node持有NodeDef, OpDef。其中,NodeDef持有设备分配信息,及其OP的属性值集合;OpDef持有OP的元数据。Graph(计算图)就是节点与边的集合,领域模型何其简单。计算图是一个DAG图,计算图的执行过程将按照DAG的拓扑排序,依次启动OP的运算。其中,如果存在多个入度为0的节点,TensorFlow运行时可以实现并发,同时执行多个OP的运算,提高执行效率。

写给大家看的机器学习书【Part5】—— 机器学习为什么是可行的(中)

从这个系列文章的第四篇开始,我们开启了机器学习可行性的讨论。在第四篇中,我们经过了“天下没有白吃的午餐 (No Free Lunch)”的考验,了解了“No Free Lunch”定理的前提假设,也得知了在具体的现实问题中,使用与问题匹配的学习算法可以取得很好的效果。

现在我们将继续出发,带上最初开启这个主题时的终极疑惑 —— 你敢跟着机器学习投资吗?
那个由训练数据也就是历史日志学得的模型,真的能在未来的预测中表现的一样好吗?

如果说上一篇还是在努力拨开 No Free Lunch 的迷雾,这一篇我们将真正展开学习可行性的定量分析和讨论。

它属于机器学习的研究方向之一 —— 计算学习理论 (Computational Learning Theory)。


图片描述 图片描述

评论