第1477节(3 / 4)
不只是拉塞尔,这次像“空头大师”查诺斯、“对冲乔丹”科恩、“做空之王”保尔森等人都因为q3财报发布落空而嘲讽出声。
鬣狗群集,追击虚弱的狮子,秃鹫盘旋,等待猎物的死亡。
国内媒体则是用了一个“黑云压城”的词语来描述易科正遭受的史无前例的压力。
时间步入十一月一号,正是西方传统的万圣节。
许久没有更新的方卓在推特上出现了新的动态,与空头同乐。
但他没有言语,只有一个滑稽的似乎要睁开眼的鬼脸表情。
略略路,我要睁眼了。
只是,方卓随手更新,国内媒体的信心却像是忽然回了一丢丢,新浪财经进行非正式的分析——许久没见的方总一出现,就好像在黑云压城中看到一丝金光,是我想象的那样吗?
连新浪的人都不敢想,都不敢纳入正式的分析,只这样默默的带着期待地问了一句。
是吗?
方总,是吗?
是甲光向日金鳞开吗?
第255章 甲光向日金鳞开
无论如何,易科的q3财报在这个月十五号都要出炉了。
尽管心里已经有预期,但亲自走入暴风雨中的陆奇还是心神不宁,也免不了在心中自嘲,看客与当事人的感受终究不同,这份压力还是受着了。
11月2日,上午11点,陆奇开完会接到了秘书的通知,方总中午请客。
等他抵达小食堂,听到正在放着的音乐是《all you need is love》便不禁微微一笑,那篇由谷歌发布《attention is all you need》的名字就是来自披头士的这首歌。
陆奇与埃尔德、吴恩达打了招呼,没聊几句就转入了深度学习dl的话题,也就立即打起精神,讲述自己更多的想法。
这两位在易科都不简单,一位总领研发范畴的事务,一位是深度学习的主要负责人,虽说自己算是空降组建深度学习事业部,但资源的分配和使用也需要相互的沟通。
陆奇能在微软做到高位,自然不会轻视人事工作。
“谷歌那边把自注意力机制的模型在论文里命名为transformer,我问了问,他们内部是在开发新的nlp模型了。”吴恩达谈到上次业界探讨后的变化。
吴恩达之前是斯坦福的副教授和人工智能实验室主任,而在加入易科前就在谷歌负责相关工作,与那边的研究交流没有中断,上次的激辩同样给他带来不少灵感。
陆奇点点头,也说着自己掌握的消息:“业界对于transformer的表现很认可,像去年成立的openai,他们现在也在着手研发一款以transformer为核心的大模型,干脆直接以它命名,叫gpt,generative pre-trained transformer。”
openai是一家去年成立的公司,有不少领域内知名的人物参与。
方卓这时候简单总结道:“难道谷歌的这个transformer真就能超过rnn和cnn了?我们在这两方面已经投入很多了。”
rnn是循环神经网络,cnn是卷积神经网络,易科的siri是基于前者,太白则是基于后者。
同样,业界在人工智能领域的研究也主要是这两个方向以及它们的变体,rnn能处理序列数据中的时间依赖性而广泛应用于自然语言处理任务,cnn则因为它在图像识别和处理中的出色表现,成为计算机视觉领域的基石。
像易科的机器人guard就使用了cnn在视觉方面的成果。
但现在,诞生于一场激辩中的第三个方向竟然隐隐有取代rnn和cnn的趋势,这无疑会削弱易科在相关领域研究的优势。
陆奇听到方总这样说,保持沉默,埃尔德也不出声。 ↑返回顶部↑
鬣狗群集,追击虚弱的狮子,秃鹫盘旋,等待猎物的死亡。
国内媒体则是用了一个“黑云压城”的词语来描述易科正遭受的史无前例的压力。
时间步入十一月一号,正是西方传统的万圣节。
许久没有更新的方卓在推特上出现了新的动态,与空头同乐。
但他没有言语,只有一个滑稽的似乎要睁开眼的鬼脸表情。
略略路,我要睁眼了。
只是,方卓随手更新,国内媒体的信心却像是忽然回了一丢丢,新浪财经进行非正式的分析——许久没见的方总一出现,就好像在黑云压城中看到一丝金光,是我想象的那样吗?
连新浪的人都不敢想,都不敢纳入正式的分析,只这样默默的带着期待地问了一句。
是吗?
方总,是吗?
是甲光向日金鳞开吗?
第255章 甲光向日金鳞开
无论如何,易科的q3财报在这个月十五号都要出炉了。
尽管心里已经有预期,但亲自走入暴风雨中的陆奇还是心神不宁,也免不了在心中自嘲,看客与当事人的感受终究不同,这份压力还是受着了。
11月2日,上午11点,陆奇开完会接到了秘书的通知,方总中午请客。
等他抵达小食堂,听到正在放着的音乐是《all you need is love》便不禁微微一笑,那篇由谷歌发布《attention is all you need》的名字就是来自披头士的这首歌。
陆奇与埃尔德、吴恩达打了招呼,没聊几句就转入了深度学习dl的话题,也就立即打起精神,讲述自己更多的想法。
这两位在易科都不简单,一位总领研发范畴的事务,一位是深度学习的主要负责人,虽说自己算是空降组建深度学习事业部,但资源的分配和使用也需要相互的沟通。
陆奇能在微软做到高位,自然不会轻视人事工作。
“谷歌那边把自注意力机制的模型在论文里命名为transformer,我问了问,他们内部是在开发新的nlp模型了。”吴恩达谈到上次业界探讨后的变化。
吴恩达之前是斯坦福的副教授和人工智能实验室主任,而在加入易科前就在谷歌负责相关工作,与那边的研究交流没有中断,上次的激辩同样给他带来不少灵感。
陆奇点点头,也说着自己掌握的消息:“业界对于transformer的表现很认可,像去年成立的openai,他们现在也在着手研发一款以transformer为核心的大模型,干脆直接以它命名,叫gpt,generative pre-trained transformer。”
openai是一家去年成立的公司,有不少领域内知名的人物参与。
方卓这时候简单总结道:“难道谷歌的这个transformer真就能超过rnn和cnn了?我们在这两方面已经投入很多了。”
rnn是循环神经网络,cnn是卷积神经网络,易科的siri是基于前者,太白则是基于后者。
同样,业界在人工智能领域的研究也主要是这两个方向以及它们的变体,rnn能处理序列数据中的时间依赖性而广泛应用于自然语言处理任务,cnn则因为它在图像识别和处理中的出色表现,成为计算机视觉领域的基石。
像易科的机器人guard就使用了cnn在视觉方面的成果。
但现在,诞生于一场激辩中的第三个方向竟然隐隐有取代rnn和cnn的趋势,这无疑会削弱易科在相关领域研究的优势。
陆奇听到方总这样说,保持沉默,埃尔德也不出声。 ↑返回顶部↑