HomePage
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

Partial_FC

论文: https://arxiv.org/abs/2010.05222代码: https://github.com/deepinsight/insightface/tree/master/recognition/partial_fc 动机解决人脸识别中随着样本数量增大的情况下,GPU计算无法负载的情况。同时保证在低计算资源的情况下能够达到全类别分类的准确率batch size=64,embedd
2025-08-26
论文笔记
#大模型 #多模态 #论文

TULIP

论文: https://arxiv.org/abs/2503.15485项目地址: https://github.com/tulip-berkeley/open_clip 背景CLIP 和 SigLIP 图文对比学习在需要高保真的图像理解任务,如计数、细粒度物体识别中效果不行。因为 CLIP 和 SigLIP 通过执行语言对齐,往往优先考虑高级语义(意思就是大致内容)而非视觉理解,从而削弱了图像理
2025-08-22
论文笔记
#大模型 #多模态 #论文

SigLIP

SigLIP项目地址: https://github.com/google-research/big_vision/blob/main/big_vision/trainers/proj/image_text/siglip.py论文: Sigmoid Loss for Language Image Pre-Training 背景在CLIP预训练时使用softmax函数会产生数值不稳定现象,因此作者尝
2025-08-12
论文笔记
#大模型 #多模态 #论文

虾皮图搜

虾皮图搜论文: Shopee Technical Report 方法 query:纯图片,编码为 embedding item:召回项目,图片和对应文本单独 embedding,然后将两个 embedding 融合为一个 embedding 模型结构 图像编码器:Swin Transformer 文本编码器:Bert 模态融合模块:6 层 merge attention(论文说比 cross-
2025-08-02
论文笔记
#大模型 #多模态 #论文

RLHF

什么是 RLHF?基于人类反馈的强化学习(RLHF)是一种机器学习(ML)技术,它利用人类反馈来优化 ML 模型,从而更有效地进行自我学习。强化学习技术可训练软件做出可最大限度地提高回报的决策,使其结果更加准确。RLHF 将人类反馈纳入奖励功能,因此 ML 模型可以执行更符合人类目标、愿望和需求的任务。 RLHF流程 数据收集 监督微调 SFT 构建单独的奖励模型 使用基于奖励的模型优化语言模型
2025-03-25
算法杂记
#大模型 #算法 #强化学习

KV Cache

模型推理在大模型推理的时候,我们最看重的是两个指标: 吞吐量: 吞吐量代表了大模型单位时间内处理 Tokens 的数量,这里的 Tokens 一般指输入和输出Tokens数量的总和。在 Infra 条件一样的情况下,吞吐量越大,大模型推理系统的资源利用效率更高,推理的成本也就是更低 时延: 时延是针对最终用户而言的。时延用户平均收到每个Token所花费的时间,业务通常认为这个数值如果小于50ms
2025-03-08
算法杂记
#大模型 #加速推理

vLLM 加速推理框架

什么是 vLLM?一言以蔽之: vLLM是一个开源框架,通过PagedAttention算法有效管理大语言模型的注意力内存,提升了吞吐量和内存使用效率。其特点包括24倍的吞吐提升和3.5倍的TGI性能,无需修改模型结构。文章详细介绍了vLLM的离线推理流程,包括KV Cache优化、内存管理和内存共享机制。 vLLM 的特点和优势: 采用了 Paged Attention,可以有效管理 Atte
2025-03-08
算法杂记
#大模型 #加速推理

位置编码

绝对位置编码相对位置编码可学习位置编码旋转位置编码(RoPE)
2025-03-08
算法杂记
#算法 #深度学习 #基础

DeepSeek-R1 部署微信机器人

待更新Github 仓库:https://github.com/GuoKent/DeepSeek-WeChatBot
2025-02-24
项目实战
#大模型 #NLP #LLM #项目实战

DeepSeek 系列

DeepSeek-V2论文:DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model DeepSeek-V3DeepSeek-R1论文: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Lea
2025-02-07
论文笔记
#大模型 #NLP #LLM #论文
123

搜索