- 阿里|当AI成为大众的新朋友
- 引言
- 一、写实派画家——GAN
- 二、印象派画家——VAE遇见过维米尔的少女,让我们抬头仰望星空,还记得梵高笔下的《星月夜》吗?星空、黑夜,在画笔中交错融合,给平静的天空泛起一串涟漪。今天,除了GAN这类“写实派画家”,可以从现实世界获取灵感进行创作;我们也有拥有“印象派画家”——VAE(变分自编码器/Variational Auto-encoder)。它如同我们时代下的“梵高”,可以基于现实世界的场景,经过自己的“思考”和“加工”,创造出更多具有想象力的画作。VAE是一种特殊的自编码器(autoencoder),它利用encoder(编码器),将所得到的图片进行编码,编码之后得到的latent space(隐空间)具有良好的规则,利用这些latent space(隐空间),它可以生成更有意义的新数据。对于VAE这个印象派画家来说,当我们给到它很多input(输入)图片作为灵感,不同于GAN希望创造与原数据集类似的数据,VAE会先用“取色器”encoder(编码器),提取出画面中的重要信息。但它并不着急直接使用这些信息,而是以这些信息为核心,围绕该核心信息拓展范围。例如,当VAE利用encoder(编码器)取色为“红色”,它会将“红色”这一信息扩大到“红色系的所有颜色”,再将这些扩大后的信息作为生成元素,生成新数据。聪明的VAE能够举一反三,进而创造出更多可能性的数据。
- 三、语言课代表——BERT驻足过博物馆,对于这个世界你是否依然充满着好奇?而我们每一次对这个世界的发问,是否都希望有一个人,能够透过语言直达我们内心?为我们答疑解惑,和我们一同对这个世界进行更深入的探究?BERT(Bidirectional Encoder Representations from Transformer),便是一类拥有“读懂语言”的算法,在纷繁复杂的语言世界中,梳理脉络、理解语言最深处的奥秘。正如机器理解图片,可以将图片的性质拆解为RGB等数值,进行编辑和运用。计算机对于文本的理解,也需要将其拆解成对应的向量。而BERT,这个理解语义的出色模型,就像班级里的“语言课代表”,可以对语言进行准确的理解,为人类社会提供帮助。BERT利用了机器学习中transformer模型中的encoder这一机制,将文本转化为向量,进行理解。那我们如何对BERT这一算法进行训练呢?主要分为两部分。我们可以将BERT理解为一个正在做英语试卷的考生,第一道题型为“MLM(MASKED LANGUAGE MODEL)”,类似于我们的完形填空。我们给BERT的语料库中,会随机遮挡15%的词语,让BERT根据上下文去猜测空缺部分的意思。通过第一类预训练,BERT能够更好地了解不同词语在不同语境下的内容,进而更准确的对语义做出了解。第二道题型为“NSP(NEST SENTENCE PREDICTION)”。我们会给到BERT成组的句子,让它去判断两个句子是否为连续的句子。通过NSP预训练可以让BERT更好地判断句子之间的关系。
- 四、让二维变立体的神奇魔杖——NeRF
- 结语
阿里|当AI成为大众的新朋友
阿里|当AI成为大众的新朋友
2024年1月16日修改
附件不支持打印
引言
当漫步于卢浮宫,我们穿梭于无数艺术画作中,你是否期待有这样一位画师,为你记录下独一无二的瞬间,让自己如同画中人一样,给这个世界留下一份凝视与回眸?当走进国家图书馆,我们打开书本跨越时空,面对万千世界的无垠知识,你是否期待有人可以读懂你的想法,陪伴你一同探索世界?当意外闯进J.K罗琳为我们创建的霍格沃茨魔法学校,你是否期待有人可以为你递上一根魔杖,如哈利波特一样,让所有平面之物跃然纸上?
这些曾经需要我们跨越时空去触达的历史、需要我们展开想象触碰到的未来,在人工智能的发展中,随着不断迭代的算法能力,悄然来到我们的身边。AI(Artificial Intelligence), 这个由无数精准算法构建起的抽象能力,正慢慢具象化,成为了人们身边,拥有特殊技能的好朋友。它可以是画家,是作家、也可以是魔术师,与我们共同描绘着关于未来的无数可能性。
附件不支持打印