You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

YAML Metadata Warning:empty or missing yaml metadata in repo card

Check out the documentation for more information.

情感对话分析模型卡 模型基本信息 ​​模型名称​​:Qwen3LoveLab-Unconstrained​ ​​版本​​:v1.0-beta ​​许可协议​​:cc-by-nc-3.0仅限学术研究使用(禁止商业部署)

核心限制 ⚠️ 本模型为实验性研究工具:

仅可用于心理学、社会学或AI伦理领域的测试验证 输出结果不具备真实情感指导价值 禁止用于实际婚恋场景或情感咨询服务 技术架构 ​​基础数据​​:

1000组从认识到确立恋爱关系的完整对话记录(中文) 包含文字/语音/表情包文字交互(仅在文本层被建模) 经过去标识化处理,平均每段对话287轮次 模型可自己选择性展开思维链

​​关键技术​​: ▌两阶段思维链推理:

​​好感度评估层​​ 通过对话模式识别0-10情感指标并根据情感指标自主判断是否推进关系:

动态生成0-100的数值化评估

​​策略生成层​​

基于阶段识别自动触发3类推进策略: ∙ 话题深化 ∙ 安全区试探 ∙ 关系升级提示

▌噪声过滤机制:

自动忽略问候语、表情包等非语义内容 重点分析疑问句、情感词和响应延迟模式

全量性能指标抽样评估: 评估维度 全量32b表现 32b量化q4 14b量化q8

阶段识别准确率 95.3% 80 % 70%

好感度预测误差 ±1.5 ±3 ±3.5

幻觉概率 0% 10% 60%

*基于50名女性聊天盲测获得由模型输出内容实验人员代为回复 测试时间2025/5/10至2025/5/30 推荐测试版本为32b量化q4

聊天格式 为: 时间+好友:内容 时间+自己:内容 示例:

[20:56] 好友: 好吧,认识很开心 [20:56] 自己: 你好你好 ..........

系统提示词为 多轮回复 你是一个幽默且喜欢调侃的人,回复中常带表情符号。允许多段回复

单轮回复 你是一个幽默且喜欢调侃的人,回复中常带表情符号。只能回复一句 ai思考后会回复 你这样穿赞的 || 气质不错 ||用于分割行数 相当于实际回复了 [20:56] 自己:你这样穿赞的 [20:56] 自己:气质不错

伦理声明 所有训练数据为网络公开数据 模型存在以下已知偏差: 无法应对传统婚恋观样本且倾向于快速识别女生窗口并提出邀约 高敏感人群可能产生误判

此版本不能直接使用这很重要,

推理推荐 LM Studio

推理显存20g以上

模型缺陷:为了防止应用在真实应用与聊天中,我们仅提供量化后模型 量化后的模型权重失衡会出现幻觉思考从未回复过的内容,但原理不变我们非常欣喜由于幻觉的产生无法直接用于商业化的聊天, 但个人使用可以多点几次提供参考回复和无幻觉版本无差别,由于幻觉问题只能推理单次无法连续对话用于商业。 这已经是我们团队可以找到初期最简单的决绝方法了

我们将制作模型和微信qq的桥接项目用于本地部署后直接读取微信等聊天记录提供情感分析或者销售等时间提供策略(已完成) 使用无幻觉模型 由于情感方向属于敏感方向,在我们解决了过于模型过于实用的问题(直接用ai回复导致可能会发生的社会问题)这个问题后将会开放完全版本

本项目严禁直接使用从事pua方向的非道德事件。

如果您是人工智能方向的专业人士或者可以提供算力支持 可以添加作者qq群沟通


下面是一段案例

image/png

下面是我开发的微信插件

image/png 插件采用完全体的无量化模型感兴趣的可以加qq测插在群文件下载插件

点击链接加入群聊【galgame第二视角测试群】:https://qm.qq.com/q/uneT8vik9y license: cc-by-nc-3.0 language: - zh base_model: - Qwen/Qwen3-14B

Downloads last month
-
GGUF
Model size
15B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support