简介: OpenAI 9月21号开源了一个新的自动语音识别(Automatic Speech Recognition, ASR)模型Whisper。Whisper模型的训练使用了680k小时的多种语言的语音数据(从网络上搜集而来)进行训练。此模型在不同的口音、背景噪声以及专业术语等上下文环境下都相当鲁棒。此外该模型还支持其它语言(共99种)的语音识别,并支持自动翻译为英文。
简介: 这篇论文发表于今年的S&P,一作Jinyuan Jia目前在杜克大学攻读博士学位,他在安全顶会上已发表多篇文章,其所在实验室主要研究隐私与安全。本文的BadEncoder 提出了一种新的针对自监督学习(self-supervised learning)的后门攻击。
简介: 这篇论文由Openai研究人员在2017年发布于arXiv上。论文改进了进化算法在强化学习中的应用,论文提出的方法极大地降低了不同进程间的通信量,让进化算法可以大规模并行。
简介: 这篇论文发表于2021年的S&P,一作 Nicholas Boucher 是剑桥大学的博士。这篇文章提出了一种针对NLP的新的攻击方式。此攻击通过对任务输入字符编码的修改,来让NLP服务的计算时间延长或者让服务给出错误的结果。它的一大特点就是经过攻击修改后的文字编码在经过渲染(比如浏览器、编辑器等)后,看起来和原本的文本是一样的(或基本差不多)。
简介: 这篇论文发布于2020年的NIPS,一作为伯克利人工智能实验室的研究人员 Aviral Kumar。论文旨在解决离线(offline)强化学习中由分布漂移(distributional shift)导致的价值函数超估(overestimation)问题。
简介: 这篇论文发表在2021年的ICLR,一作Amy Zhang目前在加州伯克利做博士后,她同时还在脸书AI研究部门担任科学家。论文研究了在强化学习环境下在不使用数据重构(类似autoencoder)方法时,如何得到一个好的环境编码的问题。
简介: 这篇文章发表于今年的NDSS,主要研究了自动驾驶(Autonomous Driving, AD)系统中过于保守策略的漏洞。文章针对AD系统中过于保守的策略,设计了一个自动搜索语义拒绝服务攻击漏洞的方法 PlanFuzz。
简介: 这篇论文发表于今年的S&P,对联邦学习在实际应用情况下污染攻击(Poisoning Attacks)的影响进行了测量。一作是麻省大学的博士,他们实验室是搞隐私保护的,包括网络中或者机器学习中的隐私保护,每年在顶会上都有一些文章输出。
For:
Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor
简介: SAC算法是Tuomas Haarnoja于DeepMind在2018年提出的强化学习算法。无模型深度强化学习在决策和控制任务中应用时会遇到两个挑战:1. 需要大量的样本;2. 收敛性。此算法希望为解决这两个挑战提供一个好的解决方案。
简介: 文章发表于今年的NDSS,对联邦学习(Federated Learning, FL)中的本地以及服务端差分隐私问题进行了测量研究。
简介: OpenAI 9月21号开源了一个新的自动语音识别(Automatic Speech Recognition, ASR)模型Whisper。Whisper模型的训练使用了680k小时的多种语言的语音数据(从网络上搜集而来)进行训练。此模型在不同的口音、背景噪声以及专业术语等上下文环境下都相当鲁棒。此外该模型还支持其它语言(共99种)的语音识别,并支持自动翻译为英文。
简介: 这篇论文发表于今年的S&P,一作Jinyuan Jia目前在杜克大学攻读博士学位,他在安全顶会上已发表多篇文章,其所在实验室主要研究隐私与安全。本文的BadEncoder 提出了一种新的针对自监督学习(self-supervised learning)的后门攻击。
简介: 这篇论文由Openai研究人员在2017年发布于arXiv上。论文改进了进化算法在强化学习中的应用,论文提出的方法极大地降低了不同进程间的通信量,让进化算法可以大规模并行。
简介: 这篇论文发表于2021年的S&P,一作 Nicholas Boucher 是剑桥大学的博士。这篇文章提出了一种针对NLP的新的攻击方式。此攻击通过对任务输入字符编码的修改,来让NLP服务的计算时间延长或者让服务给出错误的结果。它的一大特点就是经过攻击修改后的文字编码在经过渲染(比如浏览器、编辑器等)后,看起来和原本的文本是一样的(或基本差不多)。
简介: 这篇论文发布于2020年的NIPS,一作为伯克利人工智能实验室的研究人员 Aviral Kumar。论文旨在解决离线(offline)强化学习中由分布漂移(distributional shift)导致的价值函数超估(overestimation)问题。
简介: 这篇论文发表在2021年的ICLR,一作Amy Zhang目前在加州伯克利做博士后,她同时还在脸书AI研究部门担任科学家。论文研究了在强化学习环境下在不使用数据重构(类似autoencoder)方法时,如何得到一个好的环境编码的问题。
简介: 这篇文章发表于今年的NDSS,主要研究了自动驾驶(Autonomous Driving, AD)系统中过于保守策略的漏洞。文章针对AD系统中过于保守的策略,设计了一个自动搜索语义拒绝服务攻击漏洞的方法 PlanFuzz。
简介: 这篇论文发表于今年的S&P,对联邦学习在实际应用情况下污染攻击(Poisoning Attacks)的影响进行了测量。一作是麻省大学的博士,他们实验室是搞隐私保护的,包括网络中或者机器学习中的隐私保护,每年在顶会上都有一些文章输出。
For:
Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor
简介: SAC算法是Tuomas Haarnoja于DeepMind在2018年提出的强化学习算法。无模型深度强化学习在决策和控制任务中应用时会遇到两个挑战:1. 需要大量的样本;2. 收敛性。此算法希望为解决这两个挑战提供一个好的解决方案。
简介: 文章发表于今年的NDSS,对联邦学习(Federated Learning, FL)中的本地以及服务端差分隐私问题进行了测量研究。