llm
Topic | Replies | Views | Activity | |
---|---|---|---|---|
让 LLM 来评判 | 设计你自己的评估 prompt |
![]() |
0 | 2 | February 27, 2025 |
让 LLM 来评判 | 奖励模型相关内容 |
![]() |
0 | 3 | February 22, 2025 |
让 LLM 来评判 | 评估你的评估结果 |
![]() |
0 | 3 | February 11, 2025 |
让 LLM 来评判 | 基础概念 |
![]() |
0 | 3 | January 11, 2025 |
通用辅助生成: 使用任意辅助模型加速解码 |
![]() |
0 | 63 | November 19, 2024 |
将 LLMs 精调至 1.58 比特: 使极端量化变简单 |
![]() |
0 | 181 | September 29, 2024 |
对 LLM 工具使用进行统一 |
![]() |
0 | 116 | September 26, 2024 |
LAVE: 使用 LLM 对 Docmatix 进行零样本 VQA 评估 - 我们还需要微调吗? |
![]() |
0 | 124 | September 5, 2024 |
更难、更好、更快、更强:LLM Leaderboard v2 现已发布 |
![]() |
0 | 307 | June 27, 2024 |
来自 AI Secure 实验室的 LLM 安全排行榜简介 |
![]() |
0 | 359 | March 12, 2024 |
欢迎 Gemma: Google 最新推出开源大语言模型 |
![]() |
0 | 399 | February 22, 2024 |
句子嵌入: 交叉编码和重排序 |
![]() |
0 | 681 | February 6, 2024 |
开放 LLM 排行榜: 深入研究 DROP |
![]() |
0 | 413 | January 15, 2024 |
用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM |
![]() |
0 | 579 | November 7, 2023 |
面向生产的 LLM 优化 |
![]() |
0 | 716 | October 18, 2023 |
Hugging Face 的文本生成和大语言模型的开源生态 |
![]() |
0 | 744 | August 9, 2023 |
用 Hugging Face 推理端点部署 LLM |
![]() |
0 | 763 | July 21, 2023 |
Open LLM 排行榜近况 |
![]() |
0 | 1125 | July 12, 2023 |
如何使用 Megatron-LM 训练语言模型 |
![]() |
0 | 1747 | May 31, 2023 |
越小越好: Q8-Chat,在英特尔至强 CPU 上体验高效的生成式 AI |
![]() |
0 | 551 | May 23, 2023 |
为大语言模型建立红队对抗 |
![]() |
0 | 611 | April 27, 2023 |
如何评估大语言模型 |
![]() |
0 | 1529 | March 29, 2023 |