首页 > 考研资讯> 海内外15位博士,每人10万,字节跳动的奖学金越来越「香」了

海内外15位博士,每人10万,字节跳动的奖学金越来越「香」了

作者: 头条共创 2025-01-14 18:38:07 考研资讯 0次

机器心脏报告

海内外15位博士,每人10万,字节跳动的奖学金越来越「香」了

编辑:蛋酱

在这个人工智能技术新浪潮的时代,最需要什么样的人才?

最新公布的“奖学金名单”或许能告诉我们答案。

刚刚,15名青年博士生荣获2024年度字节跳动奖学金。

据字节跳动官方招聘账号显示,这些获奖者来自清华大学、北京大学、浙江大学、北京邮电大学、新加坡国立大学等国内外知名大学。今年的榜单中,不仅获奖人数比往年更多,入选大学范围也扩大到中国大陆、香港、新加坡。

截至今年,字节跳动奖学金已连续第四年颁发,入选该计划的技术人才也增至47人。本次字节跳动奖学金于2024年8月启动,共有来自44个国家的424人大学终于申请了。经过初审、材料复审的严格选拔流程,47名技术尖子生进入了最终答辩阶段,最终有15名学生获得了每人10万元的奖金。

有关奖项详情请访问字节跳动校园合作官网:https://ur.bytedance.com/home

获奖者大多在CVPR、ICCV、NeurIPS等顶级会议发表多篇论文,年纪轻轻就已是“高被引研究者”;一些获奖者的开源项目在GitHub 上轻松获得了超过10,000 颗星。在Hugging Face 上已被下载数百万次;部分获奖者致力于大型模型、具身智能、物理世界建模等前沿方向,做出了一系列受到广泛好评的基础性作品。

当我们好奇什么是高端AI人才时,打开这份奖学金名单或许就明白了。

2024年获奖者名单

陈仁泽

院校:北京大学研究领域:机器学习系统导师:梁云陈仁泽的研究重点是机器学习系统领域,包括深度神经网络(DNN)的转换和优化。参与的研究工作已在ASPLOS、ISCA、HPCA、NeurIPS、MLSyS、DAC等国际顶级会议上发表。陈仁泽以第一作者(含第一作者)共发表论文5篇。这些成果涵盖“算子间融合”、“计算图调度”、“低秩压缩”和“稀疏压缩”等方向,重点关注机器学习系统的内存优化,显着降低模型上云成本和边缘硬件。内存使用情况。

方公繁

院校:新加坡国立大学研究领域:高效深度学习导师:王新超方功凡主要研究领域为高效深度学习,包括深度网络压缩和高效模型设计。他提出了第一个广义结构化剪枝框架“DepGraph技术”,实现了模型剪枝的自动化。他还开发了开源工具Torch-Pruning,让用户只需几行代码就可以完成复杂模型的剪枝任务。此外,他针对大规模生成模型的MaskLLM、Diff-Pruning、LLM-Pruner等高效压缩方案也显着降低了网络规模和训练成本。相关研究成果被引用超过1500次,开源项目Github star超过8000。

冯银霄

院校:清华大学研究领域:计算机系体系结构与高性能互联网络导师:马凯胜冯银霄主要研究领域为计算机体系结构和高性能互联网络,包括chiplet架构、片上网络、超级计算网络、数据中心网络、分布式系统和人工智能基础设施等。

作为第一作者,研究成果发表在DAC 2022、MICRO 2023、HPCA 2023、ATC 2024、MICRO 2024、SC 2024等顶级会议和期刊上,解决了核心架构转型中的一系列关键问题从新兴技术到工业实施。和挑战,推动后摩尔计算机架构和下一代高性能互连架构的发展。

付伟

院校:清华大学研究领域:强化学习、分布式系统导师:吴毅付伟专注于解决强化学习在实际场景应用中的各种挑战。近三年在顶级会议(ICRA、ICLR、ICML和NeurIPS)发表论文6篇,其中4篇为第一作者或共同第一作者。他共同领导了“SRL项目”的开发,这是一个大规模强化学习系统,在捉迷藏环境中成功复制了OpenAI的解决方案。 2024年,他开发并开源了大型语言模型的RLHF系统“ReaLHF”,不仅取得了出色的训练吞吐量,而且促进了高级数学和编程智能体的发展。

刘克非

院校:北京邮电大学研究领域:RDMA、网络测量与故障定位导师:张角刘克飞主要研究领域:RDMA、网络测量与故障定位。在字节跳动高速网络团队实习期间,设计、开发并推动了主机内网络瓶颈定位工具Hostping和RDMA网络监控及故障定位系统R-Pingmesh在字节跳动数据中心的部署,有效保障字节跳动数据中心的部署。培训业务稳定高效运营。相关成果已发表在SIGCOMM 2024(CCF-A)、NSDI 2023(CCF-A)、IEEE/ACM Transactions on Networking(CCF-A)等顶级会议和期刊上。

刘毅

机构:香港城市大学研究领域:人工智能与物联网安全与隐私导师:王聪刘毅主要研究方向为人工智能与物联网安全、隐私与可信治理,并取得了创新和成果相关领域的领先成果和实施实践。入选2024年、2023年全球顶尖科学家前2%,作为第一作者发表CCF-A会议/期刊论文4篇、JCR Area 1期刊论文7篇(其中ESI高被引论文6篇),拥有国家发明专利3项,谷歌学术引用超过3258次。

宋宇轩

院校:清华大学研究领域:深度生成模型及其在科学发现中的应用导师:马维英、周浩宋宇轩曾任字节跳动人工智能实验室全职研究工程师。他目前的研究重点是深度生成模型和科学人工智能(AI4Science)领域,特别关注开发有效且可扩展的机器学习算法,以解决分子生成、材料设计和蛋白质家族设计等难题。目前在NeurIPS、ICML、ICLR、AISTATS等机器学习会议上发表多篇论文。其中GeoBFN荣获ICLR2024 Oral。他还参加了CAMEO蛋白质折叠竞赛,并连续六个月获得第一名。此外,他还荣获清华大学智能产业研究院院长奖。

孙振苏

院校:新加坡管理大学研究领域:智能软件工程导师:David Lo 孙振苏的主要研究领域是智能软件工程。他提出的“面向AI的编程语言语法”提高了模型推理的效率。该成果发表在ISSTA 2024 上,并荣获ACM SIGSOFT 杰出论文奖。他还首次提出了基于大模型的代码补全中无效代码补全的问题,并相应设计了预防和动态推理机制。相关成果分别发表在TOSEM和ICSE 2024上。他关于“如何预防和利用大型代码模型训练数据集中的脏数据”的研究成果也发表在ICSE、WWW、FSE和ISSTA等顶级会议上,并被提名为ICSE 2022杰出论文。

王孟昭

院校:浙江大学研究领域:数据库、大数据、信息检索导师:高云军王孟昭主要研究高维向量数据存储与检索、面向RAG的搜索系统,致力于构建人工智能应用的新型数据基础设施。在最近邻图向量检索领域取得多项理论或技术突破,提出针对向量数据规模超过亿级场景的磁盘导航图索引优化框架,查询延迟降低90%以上,将查询吞吐量提高1 个数量级。近年来主持省校级项目3项,参与国家、省部级科研项目10余项。还在SIGMOD、VLDB、ICDE、NeurIPS等顶级会议和期刊上以第一或通讯作者发表论文6篇,获得发明专利3项。

汶川

院校:清华大学研究领域:具身智能、机器人导师:高阳文川研究方向为具身智能。博士期间,他提出了RelatiViT模型,从预训练的视觉模型中提取空间关系信息;他提出了任意点轨迹建模(ATM)解决方案,以实现小样本和跨实体的模仿学习能力。同时,他还发现并定义了模仿学习中由于时间信息造成的虚假相关性而出现的模仿问题,并提出了一系列解决方案。在国际顶级会议上共发表论文13篇,其中第一作者为第一作者。此外,汶川还是NeurIPS、ICML、ICLR、CVPR、ECCV等国际会议和RA-L等国际期刊的审稿人。

吴海旭

院校:清华大学研究领域:深度学习、科学机器学习导师:龙明生吴海旭主要研究方向为深度学习、科学机器学习。他的Corrformer首次实现了全球数万个物联网设备的联合预测。他的开源时间序列分析算法库Time-Series-Library已经获得超过7000个GitHub star,在全网7万个时间序列相关仓库中排名前两名。此外,他提出的局部优化理论RoPINN和PDE快速求解网络Transolver可以在秒级内完成千万级网格的模拟。目前,作为第一作者(含共同作者)在Nature Machine Intelligence、ICML、NeurIPS、ICLR等国际顶级期刊发表论文10余篇,被Google Scholar引用5000余次。

吴瑞海

机构:北京大学研究领域:具身运算与三维视觉导师:董浩吴瑞海主要研究方向为具身运算与三维视觉。在具身智能的物体操纵领域,他针对不同类别和属性的物体提出了一系列物体操纵的视觉表示,以指导不同物体完成灵活性、清晰度等不同的操纵任务(如叠衣服、打开衣服等)。抽屉、物体拼接等),并在此基础上构建新的模拟环境,以支持更复杂、更真实的操作任务。目前已在RSS、NeurIPS、ICLR、CVPR、ICCV、ECCV、ICRA等顶级会议发表论文近20篇。

吴胜琼

院校:新加坡国立大学研究领域:多模态学习、通用大语言模型导师:蔡达成吴胜琼主要研究方向是多模态学习和大模型。目前,她已在多模态学习、自然语言处理、机器学习(如NeurIPS、ICML、ACL、ACM MM)等领域的顶级会议上发表多篇论文,在Google Scholar被引用2000次。吴胜琼还获得了多项国际、企业、学校级别的奖项和荣誉。她主导的通用多模态大语言模型“NExT-GPT”工作受到了大语言模型社区的广泛关注和认可,相关开源项目已获得超过3.4k star。

杨立和

机构:香港大学研究领域:视觉基础模型、数据驱动人工智能研究导师:赵恒双杨立和主要研究方向为视觉基础模型、数据驱动人工智能。相关研究成果的Github star数已超过12000次,Hugging Face中的开源模型下载量已超过700万次,并已被纳入Transformers库和Apple Core ML Models中。作为第一作者在计算机视觉与人工智能顶级会议CVPR、ICCV、NeurIPS共发表论文7篇,其中口头论文1篇,被Google Scholar引用超过1500次,并入选CVPR 2024 最具影响力的十大论文之一。

张琪

机构:北京大学研究领域:面向机器视觉的视频编码与沉浸式多媒体系统导师:高文、马思伟张琪的研究兴趣包括面向机器视觉的视频编码与沉浸式媒体系统。他首次提出机器视觉识别畸变的概念,编码性能提升40%。他还首次验证了机器视觉多样性的广泛存在,并提出了机器满意度的概念,使编码性能和通用性提高了30%。此外,张奇构建了基于视角块编码传输的VR直播系统,与国际标准相比,节省12K VR视频直播所需带宽75%以上,视角切换延迟降低50%。目前已在国际期刊和会议上发表论文10篇,其中TPAMI/IJCV论文3篇。

字节跳动奖学金

是什么吸引他们报名?

近年来,我们确实可以看到字节跳动持续加大对顶尖人才和前沿技术的投入。

字节跳动于2021年推出年度人才培养计划“字节跳动奖学金计划”,迄今已选拔47名年轻有为的研究人员。

为了发现这个时代最优秀的一波技术人才,除了10万元奖学金外,字节跳动还将为这些获奖者提供内部进修项目的特殊邀请渠道,鼓励优秀人才用技术回馈社会,引领未来。未来。

在多重条件的激励下,每位获奖者都能找到更广阔的空间来发挥自己的优势,并在此过程中得到充分的成长。许多获奖者都与字节跳动结下了不解之缘,并最终选择加入字节跳动。

亨特(化名)因为入选奖学金项目而来到字节跳动。他作为实习生加入了豆宝大模型团队语音组,在学校导师和Mentor的指导下,开始将信息论引入大模型量化方向。探索。对他来说,在字节的研究更接近实际落地,也可以接触到世界各地不同背景、不同技术方向的人才。他的研究视野不断拓宽。在这种氛围的启发下,Hunter 不断超越自己,取得了非常骄人的成绩:在今年7 月的ICML 会议上,他以第一作者的身份提出IR-QLoRA,并入选Oral(top 1.5)。 %)。

Eric还通过字节跳动奖学金选拔结识了字节跳动机器人研究团队的负责人,并成为该团队的一员,致力于利用强化学习解决复杂的机器人控制问题。实习期间,他和团队合作的两项机器人相关研究成功入选顶级会议ICLR 2024。其中RoboFlamingo为机器人领域的研究人员提供了强大的开源框架,可以更好地发挥开放的潜力源VLM。

从研发投入到人才规划

字节跳动如何打造“AI核”

像亨特、艾瑞克这样的人才有很多,因为奖学金选拔来到字节跳动,充分展现了自己的抱负。尤其是近两年兴起的大模型技术浪潮中,不少取得重大成果的人带着自己的研究经验来到字节跳动,并将经验转化为一个又一个的实现应用。技术转化为现实生产力,同时完成自身的成长。

这些优秀人才为何选择字节跳动?仔细想一想,不难分析出两个因素。

首先,在各界研究人员和从业者心目中,字节跳动本身就是最具吸引力的科技公司之一。近年来,字节跳动在大模型等前沿赛道上“投资饱和”,全力发力。

例如,在模型层,2023年将正式发布语言模型的字节,2024年将快速完成图像、语音、音乐、视频、3D等不同模式的生成式AI模型。在这波生成式AI浪潮中起步较晚的公司,已成为生成式AI模型最全、AI应用最多的科技公司。任何职业、任何志向的人才都可以在字节跳动找到“用武之地”。

字节跳动在大模型基础研究的布局上也进展迅速。成立短短几个月,豆宝大模型团队就有57篇论文入选ICLR、CVPR、NeurIPS等顶级会议。其研究成果包括下载量超过百万次的开源项目和热门的GitHub 项目。

浙商证券2024年底发布的报告显示,字节跳动在AI方面的研发投入大幅领先国内同行,2024年资本支出达到800亿元,接近三大BAT公司的总和(约1000亿元) )。已经到来的2025年,字节跳动的资本支出预计将达到1600亿元,其中约900亿元用于购买AI算力,700亿元用于IDC基础设施和网络设备。

尽管字节跳动官方声明称,市场传闻的资本支出并不准确,但随着豆宝模式日均调用量从1200亿代币快速增长至4万亿代币,没有人会质疑字节跳动在基础设施方面的投入。决心很大。近日,有消息称,字节跳动发布了自建数据中心变电站设计框架采购公告。此举意味着字节跳动希望获得更大的电力供应自主权和控制权,同时适应业务扩展和支持高算力需求。

规划和建设新的数据中心来支持不断增长的AI计算需求也是全球科技巨头的共同选择。 2024年4月,微软和OpenAI计划投资1000亿美元打造“星际之门”超级计算机,Meta、谷歌、亚马逊等科技巨头也在数据中心部署上雄心勃勃。在这个层面上,字节跳动的竞争力并不逊色。

有了雄厚的实力作为基础,技术人才的成长空间自然是无限的。

其次,快速发展的AI业务使得字节跳动对人才的渴求远超其他科技公司,同时也提供了极具竞争力的薪酬和回报。

字节跳动设立了众多人才项目,加大对高端技术人才的吸引力。除了博士生奖学金项目外,字节跳动还有头号种子、筋斗云等人才项目。

例如,Top Seed是字节跳动豆宝模型团队针对校园优秀人才推出的专项项目。与一般人才项目的各种“硬筛选条件”不同,头号种子更看重候选人能够“有用技术改变世界的雄心,敢于创新”,能够参与行业顶尖的技术挑战,解决困难。

与此同时,一批行业巨头也相继加盟字节跳动。据传,阿里巴巴统一大模型技术负责人周畅、零一万物科技联合创始人黄文浩、Google VideoPoet 负责人姜璐已加入豆宝大模型团队,字节跳动对技术人才的吸引力。力量。

字节跳动还投入巨资与国内知名大学进行深度产学研合作。 2024年10月,清华大学智能产业研究院(AIR)与字节跳动在清华大学成立“可扩展大模型智能技术联合研究中心”(SIALab),旨在基于广阔的前景推动大模型技术的应用。更高效的创新实践。 2024年12月,北京大学与字节跳动正式宣布成立豆宝大模型系统软件联合实验室。该实验室的科研工作将基于字节跳动自主研发的豆宝大模型进行。来自高校和企业的科研人员将围绕大模型训练、推理等关键技术在实验室进行深入研究。截至目前,豆宝大模型团队已与近20所高校深度合作,支持40余名顶尖学者参与人工智能关键技术研究。

一家科技公司想要在竞争激烈的AI时代保持自己的地位,最终需要拥有最优秀的一批“人才”。字节跳动对人工智能技术研发和人才培养的全力投入,不仅将推动自身相关业务的快速发展,也将推动中国人工智能产业的整体进步。

版权声明:本文转载于网络,版权归作者所有。如有侵权,请联系本站编辑删除。

网站分类