OpenAI、谷歌等一线大模型科学家公开课,斯坦福CS 25春季上新!
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
机器之心报道
机器之心编辑部
而且,这门课是完全开放的,任何人都可以现场旁听或加入Zoon直播,无需注册或与斯坦福大学建立关联。
课程地址:https ://web.stanford.edu/class/cs25/recordings/
课程结束后,他们还会把课程的视频上传到官方YouTube账号。目前,新学期视频第一期已经上传。
视频地址:https ://www.youtube.com/watch?v=JKbtWimlzAE
整个学期的课程表如下:
想要听直播的同学记得在太平洋夏令时间每周二下午3:00-4:20(北京时间每周三上午6:00-7:20)蹲守,具体信息请参考官方网站。
往期热门课程
V2:GeoffreyHinton——RepresentingPart-WholeHierarchiesinaNeuralNetwork
AI领域传奇人物GeoffreyHinton(「深度学习教父」)分享了他对神经网络中部分-整体层次结构的最新研究,提出了GLOM模型,旨在模拟人类视觉系统处理复杂场景的能力。
讲座探讨了GLOM如何通过动态解析树结构增强Transformer在视觉任务中的表现,解决自注意力机制的计算效率瓶颈。Hinton结合深度学习的演变历程,从感知机到RNN再到Transformer,展望了神经网络在模拟认知过程和提升视觉理解中的未来潜力。
视频地址:https ://www.youtube.com/watch?v=CYaju6aCMoQ&t=2s
V2:AndrejKarpathy——IntroductiontoTransformers
讲座还探讨了VisionTransformer(ViT)等跨领域应用,并展望了模型高效化和多模态学习的未来。Karpathy结合自身从斯坦福学生到业界先锋的经历,回顾了深度学习从RNN到Transformer的演变。
视频地址:https ://www.youtube.com/watch?v=XfpMkf4rD6E
V3:DouweKiela——RetrievalAugmentedLanguageModels
Kiela回顾了语言模型的历史,追溯至1991年的神经语言模型,澄清了OpenAI并非首创的误解,并调研了RAG的最新进展,如Realm、Atlas和Retro架构,分析其优劣。他还探讨了RAG与长上下文模型的效率对比、指令微调(instructiontuning)的重要性以及未来的研究方向,如多模态RAG和预训练优化。
视频地址:https ://www.youtube.com/watch?v=mE7IDf2SmJg
V4:JasonWei&HyungWonChungofOpenAI
OpenAI研究科学家JasonWei和HyungWonChung分享了关于大型语言模型(LLM)和Transformer架构的洞见。
JasonWei探讨了语言模型的直观理解,强调下一词预测作为大规模多任务学习的本质,并分析了扩展律(scalinglaws)与个体任务的涌现能力。HyungWonChung则从历史视角审视Transformer架构的演变,聚焦计算成本指数下降的驱动作用,提出通过连接过去与现在预测AI未来的统一视角。
两位讲者结合在OpenAI的工作经验(如FLAN-T5、Codex),展望了Transformer在多模态和通用AI中的潜力。
机器之心报道:AI研究的主要推动力会是什么?ChatGPT团队研究科学家:算力成本下降
视频地址:https ://www.youtube.com/watch?v=3gb-ZkVRemQ
©THEEND
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com