https://github.com/ZGQ-inc/home-llm-cn
WIP。
基于Gemma3训练一个Home Assistant专用的轻量模型,示例基于 google/gemma-3-1b-it,引入HA的数据集进行微调,训练LoRA权重。
最大的难点在于Gemma3不支持Function Calling,而这是HA的语音助手必须的,网上有文章教你用歪门邪道让Gemma3知道怎么样Function Calling,包括官方:
https://ai.google.dev/gemma/docs/capabilities/function-calling?hl=zh-cn
https://www.philschmid.de/gemma-function-calling
https://www.reddit.com/r/LocalLLaMA/comments/1jauy8d/giving_native_tool_calling_to_gemma_3_or_really/
关键是Gemma3-1b实在是太蠢了,我浪费了6度电也没教会,连谷歌官方的方法也一样,甚至训练开始没多久就开始过拟合,数据污染,各种幻觉,退化重复,不知道谷歌看到自家1b模型蠢成这样会不会笑,求助过Gemini,但是每次思考到一半莫名其妙卡死了,说自己是文本模型,无法处理这种问题,猜测是模型内部出问题,Gemini是支持Function Calling的,当出现tool_call之后可能模型自己以为要Function Calling了,然后就在等待客户端汇报结果,然后就卡死了,系统故障处理自动退出,目前是完全无计可施。
WIP。
基于Gemma3训练一个Home Assistant专用的轻量模型,示例基于 google/gemma-3-1b-it,引入HA的数据集进行微调,训练LoRA权重。
最大的难点在于Gemma3不支持Function Calling,而这是HA的语音助手必须的,网上有文章教你用歪门邪道让Gemma3知道怎么样Function Calling,包括官方:
https://ai.google.dev/gemma/docs/capabilities/function-calling?hl=zh-cn
https://www.philschmid.de/gemma-function-calling
https://www.reddit.com/r/LocalLLaMA/comments/1jauy8d/giving_native_tool_calling_to_gemma_3_or_really/
关键是Gemma3-1b实在是太蠢了,我浪费了6度电也没教会,连谷歌官方的方法也一样,甚至训练开始没多久就开始过拟合,数据污染,各种幻觉,退化重复,不知道谷歌看到自家1b模型蠢成这样会不会笑,求助过Gemini,但是每次思考到一半莫名其妙卡死了,说自己是文本模型,无法处理这种问题,猜测是模型内部出问题,Gemini是支持Function Calling的,当出现tool_call之后可能模型自己以为要Function Calling了,然后就在等待客户端汇报结果,然后就卡死了,系统故障处理自动退出,目前是完全无计可施。