如果事实证明只是我大脑上有一个有趣的大脑小皱纹,才让我想到看不见的火车站台,这

来源:深度学习进阶学习社


这个帖子很好地提醒了我为什么我愿意跟如此美丽可爱的大脑一起工作。

因为真正的大脑非常不可爱长得也难看。

但是过去一个月,我┅直生活在充斥着红色血管的 Google 图像的地狱里所以现在你也得忍着点儿。

我们从外往里看吧生物学有时似乎非常让人满意,比如你的头仩有一个真正的俄罗斯套娃

你有头发,然后是头皮你认为下面就是你的头骨了——但实际上头骨之上还有19样东西。

你的头骨下面又昰一大堆东西,之后才是你的大脑:

在你的头骨下面大脑周围有三个膜,将大脑环绕:

在外面有硬脑膜坚固耐用防水硬脑膜与顱骨齐平

我听到有人说,大脑中没有疼痛感觉区但硬脑膜实际上能感觉疼痛,且和你的面部肌肤一样敏感硬膜上的压力或挫伤往往慥成了人们严重的头痛。

然后下面是蛛网膜这是一层皮肤,然后是带有弹性的纤维的开放空间

我一直以为我的大脑只是漫无目的地漂茬我大脑中的某种液体里,但实际上脑外和颅骨内壁之间的唯一真正的空间差距是这个蛛网膜。

这些纤维稳定了大脑的位置因此不能動作太大,他们充当减震器当你的头撞到东西。这个区域充满了脊髓液

最后,是软脑膜和脑外融合的很精巧的皮肤层。

你知道当伱看到一个大脑,它总是覆盖着恶心的血管但这些并不是真正在大脑的表面上,它们埋设在里面

下面是完整的样子,使用的样品可能昰猪的大脑:

从左到右是皮肤(粉红色)然后是两个头皮层,然后是头骨然后是硬脑膜,蛛网膜最右边是只由软脑膜覆盖的大脑。

┅旦我们把其他部分都剥离下来我们留下了这个傻孩子:

这个荒谬的东西是宇宙中最复杂的已知物体,重约三磅神经工程师蒂姆·汉森(Tim Hanson)称之为“最具信息密度、结构化、自组织化的物质之一”。所有这一切只有20瓦的功率(类似计算机的功率为2400万瓦特)

这也是麻省悝工学院教授Polina Anikeeva 所说的“你可以用勺子舀出的软布丁”。

大脑外科医生Ben Rapoport将它更科学地描述为“布丁和果冻之间的某种形态

他解释说,如果你将大脑放在桌子上重力会使它失去形状,变得很平坦像一个水母。

你看着镜子看看你的身体和你的脸,你认为这是你——但这呮是你的机器你实际上是一个贪玩的果冻。我希望你不介意

Krishna Shenoy 教授将我们对大脑的认识与十五世纪初的世界地图做比较。

另一位教授Jeff Lichtman 甚臸更加苛刻他在课程开始问他的学生:“如果你需要知道的关于大脑的一切是一英里,我们走了几英里”他说,学生们给出了四分之彡英里、二分之一英里或是四分之一英里的答案但他认为真正的答案是“大约三英寸”。

第三个教授神经科学家Moran Cerf ,跟我分享了一个神經科学中由来已久的说法指出试图理解大脑有点 22 条军规的感觉:“如果人类的大脑这么简单,能够让我们理解那我们将会因为如此简單,而不能理解大脑”

也许,在我们正在建设的伟大的知识塔的帮助下我们可以在某个时候理解大脑。

现在让我们看看我们对头脑裏面的这只水母目前有哪些了解。

让我们使用半球横截面看看大脑的主要部分

因此,这是你脑袋里大脑的样子:

现在让我们把大脑取絀来,并删除左半球这让我们能看清楚内部。

神经学家 Paul MacLean 做了一个简单的示意图说明我们前面谈到的爬行动物大脑在进化中的第一次出現,然后是在哺乳动物兴盛阶段形成的古生哺乳动物脑和新哺乳动物脑

让我们来看看每个部分:

这是我们的大脑最古老的部分:

我们的夶脑横截面中青蛙大脑的残留。

事实上青蛙的整个大脑与我们大脑的低水平部分相似。

当你了解这些部分的功能它们很古老这件事就說得通了:一切这些部分能做的事情,青蛙和蜥蜴都可以做

延髓真的只是让你不会死。

它控制非自主的事情比如你的心脏速率、呼吸囷血压。

当它认为你中毒了就会让你呕吐。

脑桥的工作是做点这个,做点那个

它涉及吞咽,膀胱控制面部表情,咀嚼唾液,眼淚等等

中脑与视觉,听觉动作控制,警觉性体温控制有关,还有一堆其他的事情

大脑被分为了前脑、中脑和后脑。

有一件我要感謝脑桥和中脑的事是它控制你的眼球自主运动,如果现在你在转眼球就是你的脑桥和中脑在搞事情。

这个看起来像你大脑阴囊的东西昰你的小脑它使人保持平衡、协调和正常移动。

大脑的边缘系统在脑干上就是它让人类如此疯狂。

边缘系统是一种生存系统

如果你茬做你的狗也会做的事情,比如吃喝,交配战斗,躲避等等可能就是你的大脑边缘系统在驾驭你。

无论你喜欢与否你做的那些事凊,就是处在原始的生存模式

边缘系统也是你的情感所在。

最终情绪也都是为了生存——情感是更高级的生存机制,对于处在一个复雜的社会结构中的动物是必须的

每当你发生思想斗争时,你的边缘系统很可能会让你做出你会后悔的事情

我敢肯定,控制你的大脑边緣系统既意味着成熟,也是一种人性的挣扎

这并不是说没有边缘系统,我们会过得更好边缘系统在让我们人类如此独特中起到了一半的作用。

生活的大部分乐趣来源于你的情绪和需要得到满足只是你的边缘系统不知道你活在社会文明中,如果你让它做主太多它很赽就会毁了你的生活。

无论如何让我们再仔细看看。边缘系统有很多小部分

杏仁核有点儿像是大脑结构的情感遗骸。

它涉及焦虑悲傷,以及我们的恐惧反应

有两个杏仁核,奇怪的是左边的已被证明更平衡,有时会产生一些幸福的感觉而右边的永远心情不好。

你嘚海马体就像记忆的一块板子

当老鼠开始记忆迷宫的方向,记忆在海马体上编码

大鼠的两个海马体的不同部分将在迷宫的不同部分起莋用,因为迷宫的每个部分被存储在自己的海马体部分

但是,如果学习一个迷宫后大鼠被给予其他任务,一年后被带回原来的迷宫,就会很难回忆起它因为海马体记忆板上的大多记忆已经被抹去,释放给新的记忆

丘脑也作为中间人,从你的感官接收信息并将其發送到你的皮质处理感官。

当你睡觉时丘脑也一起上床,这意味着感官中间人下班了

这就是为什么在沉睡中,一些声音或轻轻的触摸往往不会让你起来

如果你想唤醒深度睡眠的某人,你必须展示出足够的侵略性来唤醒他们的丘脑

唯一的例外是你的嗅觉,这是绕过丘腦的一个感觉

这就是为什么嗅盐可以用来唤醒一个晕倒的人。不像其他的感官嗅觉位于边缘系统,这就是为什么气味和记忆与情感如此紧密地联系在一起

最后,我们到达了大脑皮层

大脑皮层(本文主要指新皮层,文中统称皮层)基本上负责所有事情:看听,触觉语言,动作思维,规划和个性

它分为四叶(lobe):

它们每个都做了很多事情,且有很多重叠:

额叶(Front lobe)处理个性以及我们认为的许哆“思考”——推理、规划和执行能力。

特别是您的许多想法发生在额叶的前部,称为前额叶皮质

额叶负责你的身体运动。额叶的顶蔀条是您的主要运动皮质

在其它功能中, 顶叶控制你的触觉特别是在初级躯体感觉皮层。

运动和躯体感觉皮层紧挨着对方它们很有趣,因为它们已经被良好的映射出来了

神经科学家确切地知道每个部分连接到你身体的哪一个部分。

于是就有了下面这张令人毛骨悚然圖:侏儒

由先锋神经外科医生怀尔德·彭菲尔德创建的侏儒,在视觉上显示运动和躯体皮层如何被映射。

这块餐巾是大脑发生大部分动莋的地方,这就是为什么你可以思考移动,感觉看,听记,说话和理解语言

真是有史以来最好的餐巾纸。

还记得我之前说你是一個果冻吗

你现在知道,感谢你的皮层你实际上是一块餐巾纸。

当我们将另一个大脑放在我们剥离的皮层上时可以看出皮层折叠的神渏效果。

即使我们知道大脑很久以前就坐在智慧的宝座之上直到最近,科学才发现大脑是由什么构成的

科学家们知道身体是由细胞制荿的,但是在19世纪末期意大利医生Camillo Golgi 才想出如何使用染色方法来看到什么是脑细胞。

这不是一个细胞本来的样子Golgi 发现了神经元。

科学家們很快想通了神经元是组成大脑和几乎所有动物的神经系统的核心单元。

有很多不同类型的神经元

我们来讨论一下简单且被人说滥了嘚神经元锥体细胞,你会在你的运动皮层发现这么个家伙:

然后如果我们给他一些额外的腿一些头发,把他的胳膊拿掉再把它抻长,峩们就得到了一个神经元

现在再添加几个神经元。

因此这些家伙的躯干——神经元的轴突都具有一个负“静息电位”,这意味着当它處于静止状态它的电荷是轻微的负。

在任何时候一堆人的脚和这些家伙的头发——神经元的树突——保持接触。

他们的脚把化学物质——神经递质——传到他的头发

大脑材料可分为叫做灰质白质两类。

灰质看起来颜色较深且由大脑神经元的体细胞及其轴突和树突組成。

白质是白色的因为这些轴突通常包裹在髓鞘中,呈脂肪白白质之间的大块主要由皮层神经元的轴突组成。

大脑皮层是像一个伟夶的指挥中心

我见过的反映这一概念最酷的插图,由Dr. Greg A.Dunn and Dr. Brian Edwards.完成让我们看看灰质皮质的外层和它下面的白质结构之间的显著差异:

这些皮层軸突可能将信息带到了大脑下部皮层的另一部分,或通过脊髓经神经系统的高速公路到了躯体的其余部分

让我们来看看整个神经系统:

神經系统分为两个部分:

中枢神经系统–你的脑和脊髓和外周神经系统——由从脊髓向外辐射到身体其他部分的神经元构成

大多数类型的鉮经元是与其他神经元沟通的interneurons。

其他两个种类的神经元是感觉神经元和运动神经元 –它们顺着你的脊髓而下组成了外周神经系统。

这些鉮经元可长达一米

以下是每种类型的一个典型结构:

当然,还有神经可塑性的事情

每个神经元的电压是不断变化的,多达每秒数百次同时数以千万计的突触连接会在我们的立方体内更改大小、消失、重新出现。

原来大脑中还有被称为神经胶质细胞的其他细胞有许多鈈同的品种,具有多种功能如清扫释放到突触的化学物质、在髓鞘包装轴突、作为大脑的免疫系统等等。

下面是一些常见的神经胶质细胞:

有多少神经胶质细胞在大脑皮层

在每立方毫米的皮质,共有一米的毛细血管

这样大小的空间内,血管是什么样子

}

雷锋网按:本文为谷歌大脑资深笁程师陈智峰博士在才云科技举办的“Kubernetes Meetup 中国 2017”活动中的分享首发于Caicloud(微信号:Caicloud2015),雷锋网(公众号:雷锋网)获授权转载

陈智峰博士现为穀歌大脑资深工程师,拥有 12 年谷歌工作经验自 2014 年以来,他参与设计并实现了被广泛应用于重要谷歌产品的新一代谷歌大脑机器学习开源系统 TensorFlow并成功将 TensorFlow 用于谷歌翻译之中,巨幅提高了谷歌翻译的准确率谷歌大脑是专注于深度学习的人工智能的研究开发团队。

陈智峰此次嘚演讲通过介绍过去一年中谷歌大脑在基础研究、系统开发和产品应用各方面的进展与参会者探讨了人工智能发展的前景和可能的方向。

以下是 Google 陈智峰带来的《谷歌大脑近期工作进展介绍》演讲内容:

大家好很高兴跟大家分享谷歌大脑在过去一年的进展以及我的一些工莋心得。

2014 年Jeff Dean 带领开发 TensorFlow(以下简写成“TF”),当时希望 TF 能够支持更多容器运用到更多领域,供更多开发研究人员使用

2015 年下半年,谷歌開源 TF整个团队觉得这个项目做得不错,于是在上面添加了更多性能比如自动 differentiation,control flow 等另外还增加了很多 operation。

最初我们只是增加乘法、加法等一些简单的数据运算。去年我们又添加了一些相对复杂的算法,很多矩行分解的支持完善文档,增加教材式的文档

过去一年,峩们也做了很多支持更多平台的工作到目前为止,TF 在 Github 上已经有 500 多个贡献者绝大多数都是 Google 以外的人,现在有超过 1 万多的 commits据统计下载量超过一百万,在学校也很受欢迎如果你去 Github 上找,你会发现很多以 TF 为基础的 repository

还有就是发布的一些基础架构软件,以及现成的模型这些基本上都放在 models 下面(如下图所示),任何人都可以下载文件做一些图像处理工作,以及自然语言处理文本语法分析。

TF 主要目的是把深喥学习的好处带给大家让大家都享受深度学习带来的好处。TF 不光是在单机上跑起来我们也增加了对 mobile device 的支持,大概下半年的时候iOS 上也鈳以跑 TF。大概 4 月份的时候我们会发布分布式版本,所以不仅可以在单机上跑 TF也可以在 AWS 上运行起来。我们还做了一些跟开源生态圈集成嘚事情例如支持像 HDFS、Spark、Windows

目前,TF 也可以通过不同的前端语言进行使用:PythonJava 等等。

TF 1.0 里面增加了稳定性和实用性还会增加一个叫 XLA 的部分,可鉯把代码直接编译成机器码

但是,有人也会疑惑做这些东西会对现实有什么影响吗?Alpha Go 再厉害它也只是个游戏。同时我们团队的成員也会疑惑 TF 到底会给现实世界带来什么影响?

那么接下来我们就来说一下 TF 带来的现实影响同时也给大家介绍一下 TF 的学习架构。

说到 TF 的用途最热门就是图像识别方向。

2011 年机器进行图像识别的错误率为 26%,人工识别的错误率为 5%到 2016 年,图片识别的错误率降低到了 3%

再讲一個 TF 运用在医疗方向的例子。

目前全球有 4 亿患者患糖尿病造成的视网膜病变诊断过程很长。在印度、非洲等一些医疗设施相对不那么先进嘚地方病症诊断专业度不够。谷歌大脑有个团队增加视网膜图片扫描工具,专门用于扫描照片让人高兴的是,现在已经可以通过图潒识别技术来对病人进行诊断而且准确率比医务人员能达到的还要高。

再回过头来说TF 对现实世界的具体影响。

比如斯坦福的另外一個研究,基本上是用同样的方法来诊断皮肤癌首先在医院拍一张照片,然后通过图像识别来诊断是否皮肤癌。

TF 对现实世界的影响还表現在自然语言识别领域

微软在 11 月的时候宣布,在类似语音识别领域机器做得比人好。10 月份的时候Google 宣布,他们能大幅提高机器翻译效果

这张图就是神经机器翻译的图。现在输入一个英文的句子假设句子中有四个单词,然后这个模型就可以对句子进行分析句子中每個词表示一个向量,每个向量都会经过一个很复杂的数学模块最后就可以得出四个项目,这四个项目通过计算延到右边这个大的模块里媔然后模块再翻译成中文,最后一个字一个字地输出成中文右边图中每一个小盒子都代表了一个很复杂的数值计算,每个小盒子都有幾百万的运算要求产生一个词都需要上亿的运算。

早在 2014 年就有很多学校在做类似研究。研究小组从头到尾写一个模型这个模型难以描述,训练起来非常困难且计算量大。就单单一个模型来说代码其实很简单,但可能需要一个月的时间来进行训练于是需要转到 TF 模型。

TF 的一个好处就是支持分布式它可以有很多参数、计算机服务器,能够充分利用资源相比用 C++,用 TensorFlow 代码量会少很多

单个语种的翻译,预测是 2-3 周的时间每种语言大约超过 1 亿个模型的训练。Google 内部要支持 100 多种语言每种语言之间都要实现互相翻译。所以如果要实现所有模型非常耗时间。一般来讲Google 进行翻译,原理就是把不同语言先翻译成英语再将这些语言翻译成其它语言。所以真实翻译效果会差很多而且成本也高。

Multilingual models 的思路非常简单用上述的数学模型即可。但是当你训练这个模型的时候要给它看不同语言的翻译,英文到日文的渶文到韩文的,同时也要给它看日文到英文的韩文到英文的。而这个时候你的模型是不会增大的,它只是阅读了不同语言的语料

训練这个模型的时候,一开始我们只是抱着试一试的心态。但是在生产应用中我们惊喜地发现这个模型不光能翻译日文到英文,还可以矗接翻译韩文到日文以及日文到韩文!之前我们完全没有想到会有这样的翻译效果。

在其它应用场景里面也会有一些类似的现象。

回箌刚才Google 在做翻译的时候,会把不同语言翻译成英文再把英文翻译成你想要的语言,这样的话对于所有自然语言来讲,英文就是表达嘚中介语言

上图讲述的就是,表述同一个意思的不同语言的句子map 到一个二维空间上,然后发现很多语言都有共性远远大于它们之间存茬的差异性

比如说同样一句话,不管是日语还是韩语它表达的意思都在上图 b 这个圈里,这是一个比较有趣的大脑现象

通过“机器训練”这个模型,聚集到一起达到提高翻译水平的效果。

然后 Google Brain 不光是做 TF内部还要很大一部分人在做很前沿的研究。

其实不管是图像识别還是 sequence modeling其实它的核心概念都可以追溯到十几二十年前。

图像识别的核心可以追溯到 1999 年乃至更之前机器翻译则可以追溯到 1997 年的 LSTM 甚至更早,┅直到 GPU 出现令这些模型计算更快,模型的效果才显现出来

当然,现在的技术不能解决所有的问题有些思路还在被探索开发。

刚才讲嘚谷歌翻译模型它们对于人的大脑来说是十分小的。Google 的翻译大概是 2 亿 5 千万个参数但是人大概有 100 倍乃至 1000 倍的神经元。所以 Google Brain 认为如果你給它更大的模型,更多的数据那么效果肯定会更好。当然一种 idea 如何集成为一个更大的模型其实还是受很多信息的限制的。

我们可以有佷多很多专家比如说 2000 个专家,每个专家的特长领域都不同如果我有问题的话,我要先去找哪个专家呢我会一步一步来解决我的问题。然后具体呢大家可以看一下,是一个highlight point

比如我刚才讲的谷歌翻译的模型,现在发布的版本大概是 2 亿 5 千万个参数比如里面有 2000 个 Export,这个模型翻译的效果比我们现在发布的模型要好很多虽然现在你可以建一个 10 倍大(乃至 100 倍)的模型,当然也会有很多问题这只是一个设想,就是说如果机器越多模型越多,那么效果就会越逼近人的智能

大家有兴趣可以看下这些论文,不光是 Google Brain很多实验室也在往这个方向努力。

另外一个比较有趣的大脑现象就是:learning to learn如果你看过去几年里深度学习的“套路”,比如你要解决一个人工智能问题然后用深度学習的方法,必须要有三个要素:在这个领域有专长的专家;有大量的数据;以及很强的计算能力对于很多公司来讲,数据和计算能力可鉯购买但是由于这个领域比较新,所以深度学习领域专家是比较少的

那么遇到的问题就是,能否找到专家的替代或者说减少对这些專家的依赖?

Google 有两个研究人员他们写了一篇论文,基本就是说你构造一个机器学习模型,就像是大家平常写一个程序一样类似于某個机器在玩游戏的过程,终极目标就是:解决遇到的问题

比如下一盘棋,那么目标就是赢这盘棋但是策略是什么呢?这时候你可以隨机生成很多很多这样的程序,这些程序里面有的运行得好,有的运行得不好你可以给不同的程序打分,对高分程序进行强化学习指导搜索过程,找到更好的模型

这个说的就是,参数越多表达能力就越强。

图中最后四行是程序搜索出来的模型这个模型在这个测試中,错误率可以降低到 3.84%去年最低的结果是 3.74%。

所以将来大家遇到问题比如说你在下棋,你想赢你就搜索一个方案,这些方案要比你掱动去设置模型要有效整个机器学习领域非常快,几年后这个方向或许就会有大的突破

大家会觉得图像识别模型已经有了,为什么还偠去生成这样的一个模型你不光可以通过程序生成这样一个图像识别模型。

深度学习非常依赖计算能力深度学习模型涉及到很多数值運算。它有个比较大的特点:对述数值运算监控能力很高核爆炸模拟的时候,要精确到 32 位甚至更高;但是在机器学习模型里面你会发現其实不需要精确到 32 位;16 位甚至 8 位就可以解决问题。

去年谷歌内部在做 TPU 芯片,它就是 8 位或者 16 位的而且价钱要比 CPU 或者 GPU 要便宜很多,低耗能结构上也要简单很多,速度也有提高现在硅谷也在做这方面的事情,所以我觉得这两年这方面将会有很大的突破

最后给大家总结┅下:大家可以感受到,这两年人工智能(特别是深度学习)的发展非常快在各个应用领域都表现非凡,相信未来还有更多领域会用到咜期待它的表现。

雷锋网版权文章未经授权禁止转载。详情见

}

我要回帖

更多关于 有趣的大脑 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信