About 1,740,000 results
Open links in new tab
  1. LORA微调系列 (一):LORA和它的基本原理 - 知乎

    本文作者提出了LORA低资源训练方法,让普通玩家有了微调大模型的可能。 更重要的是作者用大量实验和理论分析为我们讲解LORA微调背后的原理,让我们能够更加容易掌握和理解LORA …

  2. LoRA: Low-Rank Adaptation of Large Language Models - GitHub

    LoRA: Low-Rank Adaptation of Large Language Models This repo contains the source code of the Python package loralib and several examples of how to integrate it with PyTorch models, …

  3. LORA详解(史上最全)_lora模型-CSDN博客

    Apr 24, 2024 · 本文深入剖析了LoRA模型,它是用于微调大型语言模型的低秩适应技术,在Stable Diffusion模型应用中很受欢迎。 介绍了其工作原理、查找和使用方法,还给出使用注意事项, …

  4. LoRA: Low-Rank Adaptation of Large Language Models

    Jun 17, 2021 · We propose Low-Rank Adaptation, or LoRA, which freezes the pre-trained model weights and injects trainable rank decomposition matrices into each layer of the Transformer …

  5. 什么是 LoRA(低秩适应)?| IBM

    低秩适应 (LoRA) 是一种用于让机器学习模型适应新环境的技术。它可以通过在原始模型中添加轻量级部件,而不是更改整个模型来使大型模型适应特定用途。

  6. 大模型高效微调-LoRA原理详解和训练过程深入分析 - 有何m不可

    Jul 10, 2025 · LoRA的核心思想是,在冻结预训练模型权重后,将可训练的低秩分解矩阵注入到的Transformer架构的每一层中,从而大大减少了在下游任务上的可训练参数量。

  7. LoRa - Wikipedia

    LoRa ... LoRa (from "long range") is a physical proprietary radio communication technique based on spread spectrum modulation. [2] It is used as the physical layer for LoRaWAN, a low …

  8. LoRA是什么?| 5分钟讲清楚LoRA的工作原理_哔哩哔哩_bilibili

    绝对是你看过最好懂的AI绘画模型训练教程! StableDiffusion超详细训练原理讲解+实操教学,LORA参数详解与训练集处理技巧,一小时从函数到Transformer!

  9. Teeny Moody 小情绪 LoRA For ZImageTurbo & RedZ1.5

    Dec 8, 2025 · Teeny Moody LoRA v1 一款专为“ 青春期小情绪 ”(20+)而生的超萌 表情微调 LoRA。 A super adorable expression LoRA created exclusively for “ tiny moody moments ” …

  10. LoRA (低秩自适应) - Hugging Face 文档

    LoRA 是一种技术,它允许高效地微调模型,而只需更新模型权重的一小部分。 当您有一个在大型数据集上预训练的大型模型,但希望在较小的数据集上或针对特定任务进行微调时,这非常有 …