V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
gransh
V2EX  ›  问与答

大家平常说的跑 AI 量化模型,和炒股量化基金用的量化工具,是一个意思吗?

  •  
  •   gransh · 290 天前 · 1336 次点击
    这是一个创建于 290 天前的主题,其中的信息可能已经有所发展或是发生改变。
    9 条回复    2024-03-12 22:54:59 +08:00
    Sawyerhou
        1
    Sawyerhou  
       290 天前 via Android
    AI 是量化工具中的一种,后者包含前者
    Muniesa
        2
    Muniesa  
       290 天前 via Android
    ai 量化模型可以有两种意思,一种就是功能为炒股的那个量化的 ai 模型,还有一种是把原模型的 float32 数据类型量化到 float16 、int8 、int4 来提升运行速度,降低硬件要求。
    gransh
        3
    gransh  
    OP
       290 天前
    @Sawyerhou 我知道量化基金可以用不同的量化工具,我实际上想问是:大家谈论 ai 量化的时候是用于投资的吗?如果是,ai 量化是否还有其他用途
    gransh
        4
    gransh  
    OP
       290 天前
    @Muniesa 第二种这个过程应该叫精简吧,有点难以理解为什么叫量化
    Muniesa
        5
    Muniesa  
       290 天前 via Android
    @gransh 英文原词都是 quantization ,将连续数据转为离散数据的过程,金融中是将金融数据和市场信息离散化,深度学习中是将模型权重离散化,其实还是有些相似之处的。不好理解,大概是量化这个词翻译得让人有些先入为主了吧。
    Sawyerhou
        6
    Sawyerhou  
       290 天前 via Android
    @gransh 是用于投资的,没其他用途(也可能有但我不知道)
    matchalatte
        7
    matchalatte  
       290 天前
    @Muniesa #5 量化交易的量化应该是 Quantitative ,应该表示的是一种科学研究的技巧,比如定量分析 vs 定性分析。这里的量化应该是指“可以用数值衡量的意思”,通过统计学手段代替主观的交易倾向。

    而模型量化英文是 Model Quantization ,Quantization 是一种将连续数值转化为离散数值的手段。在 AI 里一般的用途是用来压缩模型,因为模型权重在训练时一般是用浮点数表示的,而常见的浮点数形式 fp32 或 fp16 都比较占空间,转成 int8 或者是 int4 可以节约显存占用,提高模型在端上设备运行的可能性。现在的一些芯片(如高通、苹果)的 NPU 也会对整数计算做一定优化,提高量化后模型的运行效率。
    matchalatte
        8
    matchalatte  
       290 天前
    @matchalatte #7 所以在英文里其实是两个单词,只是翻译成了同一种
    gransh
        9
    gransh  
    OP
       289 天前
    @matchalatte 谢谢解答
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4586 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 35ms · UTC 05:37 · PVG 13:37 · LAX 21:37 · JFK 00:37
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.