深度强化学习实验室
官网:http://www.neurondance.com/
论坛:http://deeprl.neurondance.com/
来源:华为诺亚方舟实验室官微
诺亚方舟实验室(Noah's Ark Lab)是华为公司从事人工智能基础研究的实验室,秉持理论研究与应用创新并重的概念,致力于推动人工智能领域的技术创新和发展,并为华为公司的产品和服务提供支撑。
在理论研究方面,我们拥有来自全球顶尖高校、优秀企业的高水平研究员,同时我们与世界顶尖创新资源保持连接,包括10+国家、25+大学、50+项目、1000+研究人员。2020年诺亚方舟实验室在各顶会中成绩斐然:中稿近200篇,其中CVPR 34篇、NeurlPS 20篇、ICLR 5篇、KDD 7篇、ACL 6篇,AAAI 23篇等。
在应用创新方面,我们致力于推动领先的人工智能技术在各场景、包括网络智能、企业智能、终端智能、自动驾驶等新兴领域的应用,帮助公司解决商业场景中的挑战难题。简介如下:
招聘要求
诺亚方舟实验室面向全球招募AI领域研究员,欢迎有才华的你与我们一起,成为AI时代的航海家!
工作地:深圳、北京为主,上海、西安有少量岗位。
招聘要求:
· 计算机科学、机器学习、统计学、应用数学等领域2022届博士毕业生,同时也对优秀的硕士毕业生开放;
· 对研究工作,特别是算法研究兴趣浓厚,有相关领域内的研究成果;业务抽象能力强,具备创造性思维,能够将全新想法转化为工程应用;
· 具备较强的编程实现能力,精通主流编程语言,如python/C++/Java等;
· 在高水平国际会议或学术期刊发表多篇论文,有国内外知名竞赛获奖者优先;
· 对研究工作充满热情,具备良好的团队合作精神,较强的沟通能力,有团队协作经验优先。
具体方向
决策推理方向
· 学习优化研究及应用
· 数学规划求解器
· 强化学习与多智能体系统
· 因果学习
· 表征学习与自监督学习
· 时空、时序模型研究与异常检测
· 机器学习算法研发与应用
· 贝叶斯神经网络
· 图神经网络
· 联邦学习电商多级库存/备件计划/泛网络囤货模型/需求感知
· 智慧仓储优化
· 多工厂联合加工计划优化
AI基础理论研究方向
· AI基础理论,包括深度学习理论、自监督学习理论与算法、非凸优化和计算神经学
· AI前沿技术,包括因果推断、元学习、AutoML和数据压缩
· 可信AI,包括鲁棒性、公平性、可解释性和隐私保护
自动驾驶方向
· 视觉感知、激光感知、感知融合算法研究
· 多模态自监督学习算法研究
· 车载ISP数字成像系统及算法研究
· 面向自动驾驶的3D静态场景理解
· 深度估计与场景重建技术研究
· 语义定位与众包更新研究
· 机动车/非机动车/行人的行为预测和推理算法研究
· 交通参与者(机动车、非机动车和行人等)建模及交互博弈算法研究
· 决策规划算法研究
面试流程&投递方式
· 面试流程:两轮 coding→ 业务面试→集体面试 →HR面试→综合测评→综合面试;
· 简历请以“中文姓名+学校+投递方向”命名,投递至[email protected];如您未注册过华为简历,也请到华为官网career.huawei.com注册;
· 如您的简历合适,我们会在一周内联系您。
完
总结3: 《强化学习导论》代码/习题答案大全
总结6: 万字总结 || 强化学习之路
完
第111篇:Reward is enough奖励机制实现各种目标。
第110篇:163篇ICML2021强化学习领域论文汇总
第109篇:【Easy-RL】200页强化学习总结笔记
第108篇:清华大学李升波老师《强化学习与控制》
第107篇:阿里巴巴2022届强化学习实习生招聘
第106篇:奖励机制不合理:内卷,如何解决?
第105篇:FinRL: 一个量化金融自动交易RL库
第104篇:RPG: 通过奖励发现多智能体多样性策略
第103篇:解决MAPPO(Multi-Agent PPO)技巧
第102篇:82篇AAAI2021强化学习论文接收列表
第101篇:OpenAI科学家提出全新强化学习算法
第100篇:Alchemy: 元强化学习(meta-RL)基准环境
第98篇:全面总结(值函数与优势函数)的估计方法
第97篇:MuZero算法过程详细解读
第96篇: 值分布强化学习(Distributional RL)总结
第95篇:如何提高"强化学习算法模型"的泛化能力?
第94篇:多智能体强化学习《星际争霸II》研究
第93篇:MuZero在Atari基准上取得了新SOTA效果
第91篇:详解用TD3算法通关BipedalWalker环境
第88篇:分层强化学习(HRL)全面总结
第85篇:279页总结"基于模型的强化学习方法"
第84篇:阿里强化学习领域研究助理/实习生招聘
第83篇:180篇NIPS2020顶会强化学习论文
第81篇:《综述》多智能体强化学习算法理论研究
第80篇:强化学习《奖励函数设计》详细解读
第79篇: 诺亚方舟开源高性能强化学习库“刑天”
第77篇:深度强化学习工程师/研究员面试指南
第75篇:Distributional Soft Actor-Critic算法
第74篇:【中文公益公开课】RLChina2020
第73篇:Tensorflow2.0实现29种深度强化学习算法
第72篇:【万字长文】解决强化学习"稀疏奖励"
第71篇:【公开课】高级强化学习专题
第70篇:DeepMind发布"离线强化学习基准“
第66篇:分布式强化学习框架Acme,并行性加强
第65篇:DQN系列(3): 优先级经验回放(PER)
第64篇:UC Berkeley开源RAD来改进强化学习算法
第61篇:David Sliver 亲自讲解AlphaGo、Zero
第59篇:Agent57在所有经典Atari 游戏中吊打人类
第58篇:清华开源「天授」强化学习平台
第57篇:Google发布"强化学习"框架"SEED RL"
第53篇:TRPO/PPO提出者John Schulman谈科研
第52篇:《强化学习》可复现性和稳健性,如何解决?
第51篇:强化学习和最优控制的《十个关键点》
第50篇:微软全球深度强化学习开源项目开放申请
第49篇:DeepMind发布强化学习库 RLax
第48篇:AlphaStar过程详解笔记
第47篇:Exploration-Exploitation难题解决方法
第45篇:DQN系列(1): Double Q-learning
第44篇:科研界最全工具汇总
第42篇:深度强化学习入门到精通资料综述
第41篇:顶会征稿 || ICAPS2020: DeepRL
第40篇:实习生招聘 || 华为诺亚方舟实验室
第39篇:滴滴实习生|| 深度强化学习方向
第37篇:Call For Papers# IJCNN2020-DeepRL
第36篇:复现"深度强化学习"论文的经验之谈
第35篇:α-Rank算法之DeepMind及Huawei改进
第34篇:从Paper到Coding, DRL挑战34类游戏
第31篇:强化学习,路在何方?
第30篇:强化学习的三种范例
第29篇:框架ES-MAML:进化策略的元学习方法
第28篇:138页“策略优化”PPT--Pieter Abbeel
第27篇:迁移学习在强化学习中的应用及最新进展
第26篇:深入理解Hindsight Experience Replay
第25篇:10项【深度强化学习】赛事汇总
第24篇:DRL实验中到底需要多少个随机种子?
第23篇:142页"ICML会议"强化学习笔记
第22篇:通过深度强化学习实现通用量子控制
第21篇:《深度强化学习》面试题汇总
第20篇:《深度强化学习》招聘汇总(13家企业)
第19篇:解决反馈稀疏问题之HER原理与代码实现
第17篇:AI Paper | 几个实用工具推荐
第16篇:AI领域:如何做优秀研究并写高水平论文?
第15篇:DeepMind开源三大新框架!
第13篇:OpenSpiel(28种DRL环境+24种DRL算法)
第11篇:DRL在Unity自行车环境中配置与实践
第8篇:ReinforceJS库(动态展示DP、TD、DQN)
第5篇:深度强化学习在阿里巴巴的技术演进
第4篇:深度强化学习十大原则
第2篇:深度强化学习的加速方法