|
更快的辅助生成: 动态推测
|
|
0
|
118
|
October 21, 2024
|
|
授权调用: 介绍 Transformers 智能体 2.0
|
|
0
|
307
|
May 27, 2024
|
|
万事通,专精部分领域的多功能 Transformer 智能体
|
|
0
|
277
|
May 14, 2024
|
|
Hugging Face Transformers 萌新完全指南
|
|
0
|
831
|
April 16, 2024
|
|
句子嵌入: 交叉编码和重排序
|
|
0
|
701
|
February 6, 2024
|
|
随机 Transformer
|
|
0
|
527
|
January 29, 2024
|
|
Google Colab 现已支持直接使用 🤗 transformers 库
|
|
0
|
755
|
December 1, 2023
|
|
深入理解 BigBird 的块稀疏注意力
|
|
0
|
604
|
November 23, 2023
|
|
Transformers 中原生支持的量化方案概述
|
|
0
|
1106
|
November 13, 2023
|
|
长程 Transformer 模型
|
|
0
|
1073
|
October 26, 2023
|
|
Hugging Face: 代码生成模型的预训练和微调
|
|
0
|
311
|
October 22, 2023
|
|
如何成功将 API 客户的 transformer 模型推理速度加快 100 倍
|
|
0
|
702
|
September 24, 2023
|
|
使用 🤗 Transformers 优化文本转语音模型 Bark
|
|
0
|
708
|
August 23, 2023
|
|
【不要】重复自己*——如何为现代机器学习设计开源库
|
|
0
|
490
|
August 4, 2023
|
|
基于 Habana Gaudi 的 Transformers 入门
|
|
0
|
549
|
August 1, 2023
|
|
据说,Transformer 不能有效地进行时间序列预测?
|
|
0
|
1511
|
July 4, 2023
|
|
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
|
|
0
|
2148
|
June 27, 2023
|
|
在Transformers 中使用约束波束搜索引导文本生成
|
|
0
|
484
|
June 11, 2023
|
|
解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
1450
|
June 11, 2023
|
|
编码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
842
|
June 5, 2023
|
|
编码器-解码器 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
636
|
June 1, 2023
|
|
背景 | 基于 Transformers 的编码器-解码器模型
|
|
0
|
685
|
May 31, 2023
|
|
RWKV – transformer 与 RNN 的强强联合
|
|
0
|
1170
|
May 31, 2023
|
|
Transformer 估算 101
|
|
0
|
3163
|
May 19, 2023
|
|
在 Transformers 中使用对比搜索生成可媲美人类水平的文本 🤗
|
|
0
|
531
|
May 16, 2023
|
|
大规模 Transformer 模型 8 比特矩阵乘简介 - 基于 Hugging Face Transformers、Accelerate 以及 bitsandbytes
|
|
0
|
1381
|
April 25, 2023
|
|
如何生成文本: 通过 Transformers 用不同的解码方法生成文本
|
|
0
|
914
|
April 25, 2023
|
|
使用 Transformers 进行图分类
|
|
0
|
570
|
April 19, 2023
|
|
使用 DeepSpeed 和 Hugging Face 🤗 Transformer 微调 FLAN-T5 XL/XXL
|
|
0
|
4596
|
March 21, 2023
|
|
使用英特尔 Sapphire Rapids 加速 PyTorch Transformers,第 2 部分
|
|
0
|
771
|
February 26, 2023
|