
-
多硬件并行支持:JAX 采用 XLA(加速线性代数)编译器,将计算编译为硬件无关的中间表示(HLO),这意味着同样的 JA, # N ! SX 代码无需修改便可高效运行在不同硬件后端,t e d v X包o l p括 AMD} ( ` $ x Y 9 GPU。 -
独立于底层硬件:XLA 编译器的优化策略是通用的,不针对某个特定的硬件平台。这使得任何支持 XLA 的硬件设备(如 CPU、GPU、TPU)都能受益于这些优化,获/ k k o U F得更好的性能表现。 -
极高的适应性:从 NVIDIA 转移到 AMD(或其他硬件)时,JAX 只需做极少的代码改动。而相较之下,PyTorch 与英伟达的 CUDA 生态系统紧密耦合,迁移过程相对复杂。
docker pull rocm/jax:latest
登录后复制
# Pull the Docker Image:docker pull rocm/jax:latest # Start the Docker Container:docker run -it -w /workspace --device=/dev/kfd --device=/dev/dri --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined --shm-size 16G rocm/jax:latest# Verify the Installation: python3 -c 'import jax; print(jax.devices())'
登录后复制\ Y L d q
python3 -c 'import jax; print (jax.devices ())'
登录后复制

-
模( u ; o +型大小:LLaMA 模型S D Y的权重占用了约 800GB 的显存。 -
LoRA 权重 + 优化器状态:大约占用了 400GB 的显存。 -
显存总使用量:占总显存的 77%,约 1200GB。 -
限制:由于 405B 模型的规模过大,batch 大小和序列长度的空间有限,使用的 batcm 8 ^ h 9 Wh size 为 16,序列长度为 64。 -
JIT 编译:由于空间限制,无法运行 JIT 编译版本;它可能需要比急切模式/ = r = o ~ 6 v ,稍多的空间。 -
训练速度:使用 JAX 急切模式,约为 35 toke, z B 1 \ 1 8 Zns / 秒。 -
内存效率:稳定在约 70% 左右。 -
扩展性:在 8 张 GPU 上,使用 JAX 的扩展性接近线性。



-
方法演示:https://dub.sh/felafax-demo -
代码仓库:https://github.com/felafax/felafax
DEVICES = jax.devices () DEVICE_COUNT = len (DEVICES) DEVICE_MESH = mesh_utils.create_device_mesh ((1, 8, 1)) MESH = Mesh (devices=DEVICE_MESH, axis_names=("dp", "fsdp", "mp"))
登录后复制
jax.debug.visualize_array_sharding
登录后复制
-
参数如何分片:
-
Non-Replicj 9 & , . O Mated 参数:
def make_shard_and_gather_fns (partition_specs):def make_shard_fn (partition_spec):out_sharding = NamedSharding (mesh, partition_spec)def shard_fn (tensor):return jax.device_put (tensor, out_sharding).block_until_ready ()return shard_fnshard_fns = jax.tree_util.tree_map (make_shard_fn, partition_specs)return shard_fns# Create shard functions based on partitioning rulesshard_fns = make_shard_and_gather_fns (partitioning_rules)
登录后复制
train_batch = jax.device_put ( train_batch,NamedSharding (self.mesh, PS ("dp", "fsdp")))
登录后@ ! E n I y复制


-
将 LoRA 参数(lora_a 和 lora_b)与主模型参数分开。 -
使用 jax.lax.stopu ? G s A_gradient (kernel) 来防止对主x & 2 I模型权重的更新。 -
使用 lax.dot_general 进行快速、精确控制的矩阵运算。 -
LoRA 输出在添加到主输出之前会被缩放为 (self.lora_alpha/self.lora_rank)。
class LoRADense (nn.Module):features: intlora_rank: int = 8lora_alpha: float = 16.0@nn.compactdef __call__(self, inputs: Any) -> Any:# Original kernel parameter (frozen)kernel = self.param ('kernel', ...)y = lax.dot_general (inputs, jax.lax.stop_gradient (kernel), ...)# LoRA parameters (trainable)lora_a = self.variable ('lora_params', 'lora_a', ..., ...)lora_b = self.variable ('lora_params', 'lora_b', ..., ...)# Compute LoRA outputlora_output = lax.dot_general (inputs, lora_a.value, ...)lora_output = lax.dot_general (lora_output, lora_b.value, ...)# Combine original output with LoRA modificationsy += (self.lora_alpha/self.lora_rank) * lora_outputreturn y.astype (self.dtype)
登录后复制
LoRA A matrices (lora_a)
登录后复制
-
分片规则:PS (“fsdp”, “mJ / @p”) -
可视化结果:如下图所示,lora_a 参数被分片为 (8, 1),这意味着第一个轴在 8 个设备上进行分片(”fsdm ] 3 i # Q i Lp” 轴),而第二个轴未进行分片。

-
分片规w 2 ) , u P k [ O则:PS (“mp”, “fsdp”) -
可视化结A 7 f S n / 6 &果:如下图所示,lora_b 参数被分片为 (1, 8),这意味着第二个轴在 8 个设备上进行分U ! 1 Z l * l片(fsdp 轴),而第一个轴未进行分片。

以上就是微调大模型,AMD MI300X就够了!跟着这篇博客微调Llama 3.1 405B,效果媲美H100的详细内容!