Think in Model,

AI Build the Kernels

Kernel X 驱动,迁移更快,诊断更准,生成更顺畅。

让每个人都能完成稳定可靠的代码适配。

零门槛对话

分钟级实现 专家级调优。

AI 辅助算子生成

自动补齐算子空洞,覆盖多种模型架构。

自动修复环境问题

大幅降低跨生态适配的工程成本。

实时跟进社区进展

自动扫描并还原完整依赖,减少因差异导致的返工,提高排查一致性。

标准化报告输出

输出诊断、补丁与测试结果,清晰呈现迁移过程。

ModelBridge
新建任务
所有任务
深度学习训练加速
语音识别模型兼容
计算机视觉推理优化
代码适配

正在分析模型定义 models/resnet.py

正在读取文件
workspace/models/resnet.py

检测到模型基于 torch.nn.Module 构建....

正在解析网络层级结构与前向计算路径,检测到卷积、归一化、激活等基础算子组合...

我正在确认算子调用顺序与参数绑定方式,会从三个方面入手:

  • 确认算子的真实调用顺序,避免遗漏隐式的前向依赖。
  • 逐一核对各个算子的参数含义和默认行为,防止在接口层面"看起来对"。
  • 识别哪些算子组合在 PyTorch 下依赖了运行时的宽松假设,而在目标框架中需要被显式约束、重排或拆解处理。

接下来我会把这些算子分成两类:

一类可以直接映射,另一类需要调整实现方式。

我会先完成一个"可运行、可验证"的版本....

ubuntu@sandbox:~$ docker exec mb-ascend-env ls /workspace/resnet50_training
train.py models custom_ops requirements.txt
ubuntu@sandbox:~$ docker exec mb-ascend-env python -c "import mindspore; print(mindspore.__version__)"
2.2.0
ubuntu@sandbox:~$ docker exec mb-ascend-env modelbridge adapt /workspace/resnet50_training --target ascend
loading environment snapshot
binding to running container: mb-ascend-env
using python: /usr/bin/python3
using framework: mindspore
starting code adaptation
ubuntu@sandbox:~$ docker exec mb-ascend-env modelbridge adapt --analyze
analyzing project structure
detected entry: train.py
detected model definition: models/resnet.py
detected custom ops: custom_ops/roi_align.cu
analysis completed
ubuntu@sandbox:~$ docker exec mb-ascend-env modelbridge adapt --framework
mapping pytorch apis to mindspore
replacing torch.nn modules
adjusting tensor operations
framework adaptation completed
ubuntu@sandbox:~$ docker exec mb-ascend-env modelbridge adapt --kernel
analyzing custom cuda kernels
generating ascend-compatible operator code
registering operators to mindspore
kernel adaptation completed
ubuntu@sandbox:~$ modelbridge replicate --target ascend910b
replicating environment for target=ascend910b
selecting base image: modelbridge/ascend-adapter:2025.12
pulling image modelbridge/ascend-adapter:2025.12
2025.12: Pulling from modelbridge/ascend-adapter
Digest: sha256:8c1f92ab
Status: Downloaded newer image
creating isolated container
ubuntu@sandbox:~$ docker run -itd --name mb-ascend-env modelbridge/ascend-adapter:2025.12
7c9a2e4c1b9d
ubuntu@sandbox:~$ docker exec mb-ascend-env python --version
Python 3.9.9
ubuntu@sandbox:~$ docker exec mb-ascend-env bash -c "source /usr/local/Ascend/ascend-toolkit/set_env.sh && echo $ASCEND_HOME"
/usr/local/Ascend/ascend-toolkit/latest
ubuntu@sandbox:~$ docker exec mb-ascend-env python - << 'EOF'
import mindspore as ms
print(ms.__version__)
EOF
2.2.0
ubuntu@sandbox:~$ docker cp ./resnet50_training mb-ascend-env:/workspace/
ubuntu@sandbox:~$ docker exec mb-ascend-env ls /workspace/resnet50_training
train.py models custom_ops requirements.txt
ubuntu@sandbox:~$ docker exec mb-ascend-env pip install -r /workspace/resnet50_training/requirements.txt
Requirement already satisfied: numpy==1.24.4
Requirement already satisfied: transformers==4.36.2
ubuntu@sandbox:~$ docker exec mb-ascend-env ls /usr/local/Ascend/ascend-toolkit/latest/compiler
bin include lib
environment replication completed
搜索
README.md
User/juno/Desktop/README.md/#ModelBridge代码适配完成说明
# ModelBridge代码适配完成说明
本仓库代码为通过 **ModelBridge** 完成适配后的版本。
原始项目基于 **CUDA+PyTorch** 环境运行,现已迁移至 **Ascend 910B + MindSpore** 环境。
本README用于说明本次代码适配的背景、修改内容、当前状态以及使用注意事项。
---
## 一、适配任务概述
- 原始环境:CUDA + PyTorch
- 目标环境:Ascend 910B + MindSpore
- 适配方式:ModelBridge自动化适配
在本次适配过程中,ModelBridge对代码结构、框架接口以及部分分算子实现进行了修改与生成,以确保代码能够在目标硬件与软件环境中
- 正确编译
- 正常运行
- 通过基础功能验证
---
## 二、整体适配结果
- 适配状态:已完成
- 是否可运行:是
- 是否通过基础验证:是
- 是否需要用户继续修改代码:否 (可直接使用)
---
## 三、主要修改内容说明
以下内容为本次适配中对原始代码产生实际影响的主要修改点,用于帮助理解代码变化来源。
You

重新定义代码迁移的

效率与边界。

3-5min

此时人工环境搭建需1-2天

脚本迁移与API替换1-2天

零门槛对话交互轻松实现迁移

提交代码与运行环境

上传代码任务,并补充当前运行所需的环境与硬件信息。

复刻原始环境

系统自动还原原始运行环境,并检查是否匹配。

20-30 min

复杂任务可能大于2小时自主完成

人工处理算子缺失与补齐数周至数月

颗粒度对齐3-7天

分钟级实现各类模型的自动适配

开始代码适配

启动代码适配流程,将现有实现调整为目标平台可运行形式。

打包可部署产物

将适配后的代码、运行环境和配置统一打包,形成部署包。

0-15min

人工性能优化数周时间

输出可二次开发的代码而非编译产物

处理部署与运行问题(如有)

针对部署或运行中出现的问题进行调整和修正

合作部伙伴 内容待添加

联系我们。

Hr@autokernel.cn
contact@autokernel.cn