Skip to content

v2.0.0-beta1

Compare
Choose a tag to compare
@Superjomn Superjomn released this 01 Sep 11:05
· 2 commits to release/v2.0.0-beta1 since this release

Release Note

功能

  • 新增以下OP以支持更多X2Paddle 转换的模型:
    • exp
    • elementwise_div
    • assign
    • floor
    • stack
    • reduce_mean
    • matmul
    • expand
    • squeeze

编译

  • 解决 docker 编译 ARM Linux 存在的问题,现支持 armv8 和 armv7 的 gcc 和 clang 编译,并增加相应文档
  • 支持ios编译和发布,并增加相应文档

框架

  • MobileConfig 新增接口支持从内存中加载模型
void set_model_buffer(const char* model_buffer,
                      size_t model_buffer_size,
                      const char* param_buffer,
                      size_t param_buffer_size) 

示例:

lite_api::MobileConfig config;
config.set_model_buffer(
    model_buffer.c_str(), size_model, params_buffer.c_str(), size_params);
auto predictor = lite_api::CreatePaddlePredictor(config);
  • Pass 算子设备类型绑定。在绑定的设备或算子类型未注册时,相应 Pass 不再命中执行。以避免找不到指定设备或算子导致的程序退出。

示例:

REGISTER_MIR_PASS(io_copy_kernel_pick_pass,
    paddle::lite::mir::IoCopyKernelPickPass)
    .BindTargets({TARGET(kAny)})
    .BindKernel("io_copy");

文档

bugfix

  • 修复 model_optimize_tool 的一系列问题,目前int8量化训练模型可经 model_optimize_tool 进行优化输出naive_buffer格式,且输出模型可使用 MobileConfig 正确运行int8推理过程。

附件

android

IOS

memory optimize tool