Everything is cheap, show me something.
cover

大语言模型加持下的自动化引擎

使用LLM(large language model, 大语言模型)来构建智能体的核心部件是一个非常酷的概念。验证此概念的一些应用,比如:AutoGPT、GPT-Engineer以及BabyAGI等,都给出了令人鼓舞的结果。LLM的潜力不会局限于文本重写优化或者写小说、发言稿和程序,它也可以用于构建一个强大的、解决一般问题的框架。

2023年10月10日
cover

深度强化学习中的探索策略

在强化学习中,探索与利用是一个非常重要的主题。我们希望智能体可以尽可能快地找到最佳解决方案。而同时,在没有经过足够探索的情况所获取到的策略可能很糟糕。它很有可能是一个局部最优方案或者是一个失败的方案。以最大回报率为优化目标的现代强化学习算法可以非常高效地实施“利用”这一过程,但是,如何进行探索一直是一个开放讨论的话题。

2022年11月21日
cover

视觉语言模型

据图片来生成文本的任务(比如图片描述/视觉问答等)已经被研究了好些年。传统解决这类问题的系统通常会将一个对象检测网络用作一个视觉特征编码器,而后再利用一个解码器将特征向量解码为文字。由于当前此类研究数量太大,在这里我仅关注这其中的一类解决视觉语言任务的方法。

2022年9月2日
cover

有限样本学习(三):数据生成

这是有限样本学习的第三方部分内容。我们考虑两种生成训练数据的方法:数据增强与生成新数据。

2022年4月29日
cover

【学术毒鸡汤】ICLR 2022 论文数据分析:你离成功只差不到一个单词

2022 年ICRL 论文结果公布,根据我爬到的数据,最终投稿的共有2658篇论文,接收1095篇论文,接收率高达41.2%。(不得不怀疑一下灌水质量)

2022年3月11日
cover

强化学习经典算法实验之DQN

DQN论文是 DeepMind 的研究人员在2013年发表的。一作作者Volodymyr Mnih博士毕业于多伦多大学,对人工智能领域特别是强化学习有杰出贡献。DQN的论文首次使用卷机神经网络直接处理游戏画面来进行Atari游戏的控制。

2022年3月7日
cover

有限样本学习(二):主动学习

这是有限样本学习的第二部分内容。这次,我们允许使用有限的预算来进行人工打标签的工作。由于预算有限,我们必须非常谨慎地去选取待标记样本。

2022年3月4日
cover

常用激活函数及其梯度可视化

本文给出了pytorch里面支持的所有二十几种激活函数的可视化作图。

2022年2月19日
cover

有限样本学习(一):半监督学习

简介在监督学习中,高质量的标签是任务性能的保障。然而,给大量的数据样本打标签的代价是非常昂贵的。由此,机器学习中诞生了一些新的范式,专门用于解决在标签非常缺乏的情况下的学习问题。在这些范式中,半监督学习是一个可选方案(半监督学习仅需依赖很少部分打过标签的数据+大量无标签数据)。

2021年12月23日
cover

对比表征学习(Contrastive Representation Learning)

对比学习(Contrastive Learning)的主要思想是让相似样本表征间的距离相近,而差别很大样本表征间的距离较远。对比学习在监督学习和非监督学习中都可以使用,在许多的计算机视觉和自然语言处理相关的任务中都有很好的性能表现。

2021年11月9日
cover

强化学习之一二

在这篇文章中,我们从强化学习的基本概念开始,而后介绍一些经典的算法,带大家快速浏览强化学习世界。希望这篇文章帮助新手快速开始精彩的强化学习之旅。【注意】 这篇文章比较长哦。

2021年9月13日