©CC BY-NC-SA 4.0

频道: cx.ms/channel
笔记: cx.ms/memo
博客: cx.ms/blog
剪贴: cx.ms/clip
社交: cx.ms/sns
#吐槽

不管语言模型开不开源, 普通人都很少有自己本地运行语言模型的, 要么是没有足够的计算资源(就像电子游戏的「推荐配置」一样), 要么是没有语言模型的运行经验(就像自托管一样).
一般人能够受益的直接就是以代托管语言模型为基础提供兼容 API 或集成语言模型的聊天界面的服务, 也就是「语言模型即服务(Language Module as a Service, LMaaS」. 高参数模型, 或者说是「大型语言模型(LLM)」依靠参数堆叠轻松地做到更 "聪明", 但相对模型需要的计算资源代价是消费者更加难以接受的.

在一段时间内, 真正的消费级语言模型应该是「小型语言模型(SLM)」, 也就是真正能够运行在语言模型的「推荐配置」的消费级硬件上, 参数规模少于 7B 的语言模型. 当然也有一些厂商通过 LMaaS 的形式将 AIGC 能力通过网络接入到设备里, 虽然依赖网络但还是让一些旧硬件或者低端硬件也成为了「AIPC」一样的东西, 但大部分都是营销噱头而已, 毫无技术含量可言, 充其量只是硬件捆绑软件权益的形式售卖的一个溢价点, 这部分溢价有的还很高(不仅对于消费者, 也对于某些市场投资者而言).

#LLM #SLM #LMaaS #AIGC

via Nostr@cxplay
SiliconCloud - 裂变活动

SiliconCloud (硅基流动) 是一个国内的大语言模型云平台, 提供多种基于开源模型托管的 API 服务, 包括 Qwen, gemma, Llama, stable-diffusion, SDXL, DeepSeek 系列的模型. 提供免费和付费版本模型使用.

现在通过裂变活动的邀请链接加入, 双方都可立即获得 14 元人民币(相当于两千万 Qwen1.5-14B Token 配额).

价格表: https://siliconflow.cn/zh-cn/maaspricing#siliconcloud
邀请链接: https://url.cx.ms/siliconflow

#aff #LLM #AIGC

via CXPLAY's Memos
对大型生成模型「下毒」的数字资产保护工具

继 Glaze 之后, 来自芝加哥大学的团队公布了另外一种保护图像的工具 "Nightshade", 相比于 Glaze 通过调整图像细微像素来误导模型训练时的判断, 从而使人类艺术家保护自己艺术品真正重要的东西 —— 艺术风格. 而 Nightshade 则是直接对可能会被用于模型训练的材料进行「下毒」, 含毒的材料如果经过加工被添加到数据集中, 会影响整个 prompt 关键词的生成结果, 使模型生成与 prompt 完全不相干的结果, 而模型中毒后现有的手段也难以从数据集中分辨和剔除这部分有毒的材料, 从而实现更深远的 "资产保护" 效果.

参考文章

Glaze - What is Glaze
50张图“毒倒”Stable Diffusion,汽车和牛都分不清了 - 微信公众号 (存档)
This new data poisoning tool lets artists fight back against generative AI | MIT Technology Review
2310.13828 Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models - arXiv
New data poisoning tool lets artists fight back against generative AI : r/artificial

#人工智能 #AIGC #知识产权

via CXPLAY's Memos
 
 
Back to Top