机器学习增强人类记忆力,谷歌上线AI速成课

过去一周AI大事件!

AI以不可思议的方式击败Q*bert游戏

来源:WWW.THEVERGE.COM

链接:https://www.theverge.com/tldr/2018/2/28/17062338/ai-agent-atari-q-bert-cracked-bug-cheat

最近的一个实验展示了一个人工智能代理以前所未有的方式打败了80年代经典游戏Q*bert。它发现了一个让游戏在特定点瘫痪的bug。训练AI代理来发现游戏中可能出现的意外错误也许会成为一个新的游戏维护方式。

使用机器学习解码并增强人的记忆力

来源:WWW.WIRED.COM

链接:https://www.wired.com/story/ml-brain-boost

研究人员在患者解决记忆任务时收集了植入患者大脑中电极的训练数据。然后使用相同的电极刺激该患者的神经活动。这样的刺激使患者记忆词汇的能力平均提高了15%。

谷歌的人工智能芯片智能相机现已上市

来源:TECHCRUNCH.COM

链接:https://techcrunch.com/2018/02/27/googles-ai-powered-clips-smart-camera-is-now-available

Google将这个产品称为“智能相机”,这是因为设备上部署了机器学习,旨在使体验尽可能简洁。Google表示,通过使用设备上的机器学习,该设备可以捕捉到人和宠物面部表情最合适的瞬间并进行拍摄。

文章&教程

机器学习速成课程(Google)

来源:DEVELOPERS.GOOGLE.COM

这个系列课程是Google推出的15小时以上的机器学习速成课程,包含一系列视频讲座,实际案例研究和动手练习。使用Tensorflow。

研究机会:NLP和转移学习

来源:RUDER.IO

链接:http://ruder.io/requests-for-research

这篇文章为初级研究人员和那些试图进入研究领域的初学者提供了启发和思路。它收集了一系列有趣的研究课题,重点关注NLP和转移学习。

变体自动编码器简介(视频)

来源:WWW.YOUTUBE.COM

这个视频将简要介绍变体自动编码器,这是一类可以学习以完全无监督的方式压缩数据的神经网络。

神经网络能一直做好物体识别吗?

来源:AIWEIRDNESS.COM

链接:http://aiweirdness.com/post/171451900302/do-neural-nets-dream-of-electric-sheep

如果一切都按照规则进行,图像识别的效果将会很好。但是,只要人们或羊(要识别的物体)做了什么意想不到的事情,这些算法就会显示出它们的弱点。

增加深度可以加速优化吗?

来源:WWW.OFFCONVEX.ORG

链接:http://www.offconvex.org/2018/03/02/acceleration-overparameterization

“深度对神经网络意味着什么?”是深度学习理论中的一个基本问题。理论研究支持的传统观点认为,增加图层会增加表现力,但优化会变得更加困难。然而,事实证明,增加深度有时可以加速优化。

代码,项目&数据

机器人研究概要(OpenAI)

来源:BLOG.OPENAI.COM

链接:https://blog.openai.com/ingredients-for-robotics-research

这篇文章介绍了OpenAI开源的8个模拟机器人环境和Hindsight Experience Replay算法的标准实现。算法实现可以在基础库中找到。

Lore:如何在15分钟内建立深度学习模型

来源:TECH.INSTACART.COM

Lore是一个Python框架,使机器学习可以被工程师使用,并且可以被机器学习研究人员维护。这篇文章将介绍使用Lore设计和部署模型的示例。

TensorFlow 发布 1.6.0版本

来源:GITHUB.COM

链接:https://github.com/tensorflow/tensorflow/releases/tag/v1.6.0

新地版本包含针对CUDA 9.0和cuDNN 7预构建的二进制文件,针对非插槽变量的新优化器内部API,对SavedModels导出的改进,对XLA CPU / GPU添加的FFT支持等等。

GANs的Keras实现

来源:GITHUB.COM

链接:https://github.com/eriklindernoren/Keras-GAN

这个项目对来自各种研究论文的许多GANs进行了Keras实现。其中一些是论文中提出的简化版,但它们仍然是很好的学习资源。

爆款论文

建立具备内在动机和自我感知的代理来学习玩耍

来源:ARXIV.ORG

链接:https://arxiv.org/abs/1802.07442

婴儿是游戏的专家,具有在缺乏清晰的外部奖励信号的非结构化环境中进行新颖的结构化行为的惊人能力。作者研究了好奇心驱动的内在动机,并提出一个“世界模型”网络,学习预测代理人行为的动态后果。同时,他们训练了一个单独的“自我模型”,使代理能够跟踪自己世界模型的误差图然后使用自我模型来对抗发展中的世界模型。

回归基础:Atari的标准演进策略

来源:ARXIV.ORG

链接:https://arxiv.org/abs/1802.08842

作者从定性上证明,ES算法与传统的RL算法相比具有非常不同的性能特征:在某些游戏中,他们学习利用环境的能力更强,而其他代理则可能陷入次优局部最小值。因此,将它们的优势与传统RL算法的优势相结合可能会导致现有技术的新进展。

保罗万象的网络(Schmidhuber)

来源:ARXIV.ORG

链接:https://arxiv.org/abs/1802.08864

对日益普遍的问题求解器进行渐进式培训,不断学习解决新的任务,而不会忘记以前的技能。问题求解器是称为ONE的单个递归神经网络,并且可以以各种方式进行训练,例如, 黑盒优化,强化学习,人工进化以及监督和无监督学习。

本文主要内容引自 腾讯网