Docker 操作 创建镜像通常,创建 Docker 镜像的方法是通过 Dockerfile 文件。Dockerfile 是一个文本文件,包含了构建镜像所需的所有指令。 基于 Ubuntu 创建 Python 环境1234567891011121314151617181920# 使用官方 Ubuntu 镜像作为基础镜像FROM ubuntu:20.04# 设置环境变量,防止在安装过程中出现交互式提示ENV DEBIA 2025-01-20 开发笔记 #开发 #docker
Pytorch 分布式训练 手动配置分布式训练该方法自定义程度化较高,但环境等需自己配置,代码写起来较繁杂 准备环境12345678910111213141516171819202122232425262728293031323334353637383940import torchfrom torch.nn.parallel import DistributedDataParallel as DDPdef setup_dis 2025-01-18 开发笔记 #分布式 #开发 #Pytorch #Python
Python 装饰器@property装饰器作用就是把方法method转换为属性property。因此被@property装饰的成员函数,只能有一个参数self;不能和别的类属性同名;并且在调用时不需要加()。 换句话说就是把函数变成一个属性(数值) 如果只有@property装饰,那么value是只读不可写的。因此在property装饰的基础上,还附赠了@x.setter装饰器和@x.deleter装饰器 2024-12-31 开发笔记 #开发 #python
Git 笔记 git clone12345678git clone:git clone http://xxxx.git # 默认master分支git clone -b <branch_name> http://xxxx.git # clone指定分支# clone 特定版本/分支git clone -branch <branch-name> <repo-address> 2024-12-23 开发笔记 #开发 #git
微调 微调微调一个模型的流程收集数据 →\rightarrow→ 数据处理/清洗 →\rightarrow→ 选择合适模型/loss →\rightarrow→ 添加特定任务头层 →\rightarrow→ 冻结部分参数 →\rightarrow→ 设定超参数 →\rightarrow→ 模型训练 →\rightarrow→ 模型评估 LoRA 微调 核心思想: 参数优化量可以是低秩的,映射到低维空间下 2024-12-12 算法杂记 #NLP #LLM #大模型
Tokenizer 正向/逆向最大匹配法正向最大匹配法(Forward Maximum Matching, FMM):从左到右扫描句子,每次取最长的匹配词。逆向最大匹配法(Backward Maximum Matching, BMM):从右到左扫描句子,每次取最长的匹配词。 优点:实现简单,高效。在词典较完善时效果较好。 缺点:对歧义的处理能力弱。不能有效处理未登录词(OOV,Out-of-Vocabulary) 2024-12-08 算法杂记 #NLP #LLM #大模型