论文合集||ICLR2023 扩散模型论文发表时间:2023-05-31 13:33作者:沃恩智慧 国际表征学习大会(International Conference on Learning Representations,简称 ICLR)是深度学习领域的顶级会议,关注有关深度学习各个方面的前沿研究,在人工智能、统计和数据科学领域以及机器视觉、语音识别、文本理解等重要应用领域中发布了众多极其有影响力的论文。 沃恩智慧小编整理了一些扩散模型的论文,希望对在科研路上砥砺前行的小伙伴有所帮助。 1. Analog Bits: Generating Discrete Data using Diffusion Models with Self-Conditioning 提出了一种用于连续传播的隐式数据生成算法。该方法的主要思想是首先将隐式信息表示为二进制二位数,然后训练一个连续传播模型将这些二元组表示为真实的数字,我们称之为 analog二元。为了生成样本,模型首先生成二元二,然后阈值为获得隐式变量表示的二元块。我们还提出了两种简单的技术,即自我条件和隐式时间间隙,这导致了显著的改进样本质量。尽管其简单,该提议的算法可以在 discrete图像生成和图像标题处理中实现强大的性能。对于隐式图像 generation,我们大幅提高了基于CIFAR-10和基于imageNet-64x64的最新先进水平。 论文:https://www.aminer.cn/pub/62f1d08c90e50fcafd88ec6b/ 2. Zero-Shot Image Restoration Using Denoising Diffusion Null-Space Model 大多数现有的图像恢复(IR)模型都是任务特定的,不能对不同的退火操作进行推广。在本文中,我们提出了归纳传播不间隙模型(DDNM),这是一个任意线性无光束框架,用于任意的线性无光束问题,包括但不限于图像超解析、彩绘、油漆、压缩和打分。除了预先训练好的无光束建模之外,我们还提供了一种增强和鲁棒化的版本,称为DDNM++。我们的实验表明,该框架优于其他最先进的无光束方法。 论文:https://www.aminer.cn/pub/63896cd690e50fcafde7a04c/ 3. Blurring Diffusion Models 提出了一种基于极性消歧的合成建模的新传播方法。在本文中,我们证明了通过非极性噪声将blurring定义为与极性光谱消歧相关的等价物。在这项工作中,我们打破了反熵和表示传播之间的边界,并指出了来自这种建模选择的诱导偏差。最后,我们提出了一组通用化的传播模型,该模型优于标准的矩阵消歧和反熵。 论文:https://www.aminer.cn/pub/6321467190e50fcafdb9b304/ 4. Diffusion Policies as an Expressive Policy Class for Offline Reinforcement Learning offline reinforcement学习(RL),旨在学习一个有效的政策,使用以前收集的静态数据集,是RL的一个重要范畴。标准的RL方法通常在这一任务中表现不佳,因为在外部收集动作对齐错误造成的函数近似错误。然而,已经提出了许多适当的规则化方法来解决这个问题,但这些方法通常受到有限的表达能力限制,有时会导致几乎不optimal的解决方案。在本文中,我们提出了一种新的基于条件传播模型的动态调整算法,该算法利用了条件传播模板作为高度表达性的政策类。在我们的方法中,我们在决策损失中学习了一个决策值函数,并添加了一个最大化决策值的时间限制。我们表明,基于模型的政策的表达性和决策改善结合在一起,产生了卓越的性能。 论文:https://www.aminer.cn/pub/62fa0d1490e50fcafd2462dd/ 5. DreamFusion: Text-to-3D using 2D Diffusion 文本到图的扩展依赖于训练数百万个图像文本对。将这种方法调整为3D合成需要大规模标记的3D数据集和有效的标记数据架构。在本文中,我们利用一个预过滤的2D文本引用空间传播模型来执行文本-到-3D合成。我们引入了基于概率浓缩的损失,这使得使用2D传播模型作为参数化图生成器的先决条件,可以使用该损失用于优化度量图生成的二值图 generator的二值。由此产生的二值模型可以从任何角度观察,不受任意照明或合成。 论文:https://www.aminer.cn/pub/63365e7f90e50fcafd1a3612/ 6. Diffusion-GAN: Training GANs with Diffusion 基于变换的潜在敌对网络近年来,生成模型噪声的有效疗法一直是个挑战。在本文中,我们提出了传播-GAN,一种新的GAN框架,该框架利用了向前传播链生成分布式示例噪声。传播-gan由三个组成部分组成,包括适应性传播过程、传播时间段相关的区分器和生成器。观察到的和生成的数据都通过同一个适应性传输过程传播。在每个传播时段,存在不同的噪声到数据相似性,并由时间段相关的区分性来学习分离实际数据。生成器的转换策略通过转换向前传输链提供一致并有帮助的指导,使其与真实的数据分布相匹配。我们理论上表明,区分器的时间段依赖性策略为产生器提供一致且有帮助的指示。 论文:https://www.aminer.cn/pub/629ec1f85aee126c0fb6fbd1/ 7. Diffusion Models for Causal Discovery via Topological Ordering 当从观察数据中发现因果关系时,可以考虑额外的假设,例如将函数相关性限制为非线性且附加噪声。在这种情况下,数据列表概率的启发式可能被用于寻找因果图中的叶名。为了利用这种优势,我们提出了多项式顺序算法,该算法通过两步进行图发现,首先先行查找边界(顶级顺序),然后修补潜力关系。这比以前的方法效率更高,因为搜索是通过矩阵而不是图空间进行的。然而,现有的计算方法来获取顶级顺序仍然不膨胀,随着变量和样本数量增加。因此,我们提出了基于分布概率模型的新推理算法DiffAN。 论文:https://www.aminer.cn/pub/634781fe90e50fcafd2c1f35/ 8. Is Conditional Generative Modeling all you need for Decision Making? 研究了条件生成模型如何直接解决后续决策问题。发现假设导致在标准评估中优于现有的纸板方法。通过将政策建模为回报条件生成模型,我们避免了动态规划所需的许多复杂性。此外,我们还展示了作为条件生成模型的优点,考虑了两个因素:约束和技能。训练期间对单个约束或技能进行conditioned会产生行为,在测试时可以达到多个约束一起或展示技能组件的能力。 论文:https://www.aminer.cn/pub/63dcdb422c26941cf00b6061/ 9. Sampling is as easy as learning the score: theory for diffusion models with minimal data assumptions 基于分数化的生成模型提供了理论对齐保证,如归纳传播概率模型(DDPM)。这些模型构成了大规模真实世界生成的模型的基础。我们的主要结果是,假设正确的分数估计,那么这样的SGM可以有效地从几乎任何现实数据分布中采集。 论文:https://www.aminer.cn/pub/632d240290e50fcafd91b2d9/ 10. DiffEdit: Diffusion-based semantic image editing with mask guidance 语义图像编辑的分布式消歧方法本文提出了一种利用文本条件约束的分布式的消歧模型来处理语义照片编辑的任务。我们提出了多对多映射,该方法利用了基于文本的传播模型来对不同文本要求的图像进行分类。此外,我们还利用潜在推理来保持相关内容的区域,并表明分布式传播非常有效。 论文:https://www.aminer.cn/pub/63520de890e50fcafd60f4f5/ |