作者:仲春 暨南大学法学院/知识产权学院 副研究员
2025 年 12 月,字节跳动推出的“豆包”手机助手惊爆市场,其跨平台比价下单、后台自动处理文件、全局记忆用户偏好等功能,让用户直观感受到人工智能时代的手机使用新范式。目前,科技爱好者可在豆包与中兴合作的工程样机nubia M153上,体验该助手的技术预览版本。然而,创新背后的争议随之而来,各大银行、微信、淘宝等平台纷纷以安全为由封禁豆包手机助手接口,显示平台对安全以及现有商业利益的维护诉求;用户一方面既渴望享受新技术带来的便利,一方面又担忧隐私数据被过度采集;监管层面则面临着新兴技术发展与旧有商业利益保护的艰难平衡。
事实上,这类争议并非首次出现。2016 年,华为曾推出一款具备智能推荐功能的手机,能根据用户微信对话内容定制个性化服务。比如,用户发送“明天我要去培训”,手机会自动在日历添加事项;提及电影相关信息时,便推荐热映影片并提供订票入口。华为称,这些功能是与科大讯飞、高德地图等企业深度合作的成果,且所有操作均获得用户明确授权;但腾讯认为其未经许可获取数据,涉嫌侵犯微信用户隐私权。此事最终在主管行政机构调解下暂告一段落,未形成明确结论。如今,随着AI技术的大幅进阶,类似争议再度浮出水面。域外市场也有同类纠纷:2025年11月,亚马逊提起诉讼,指控Perplexity AI旗下的Comet代理(AI Agent)在多次收到通知后,仍将自动化“代理”浏览器伪装成人类用户以规避技术障碍,并在未经许可的前提下访问私人客户账户。
作为大模型与智能终端深度融合的典型产物,豆包手机助手的争议带来诸多法律问题。鉴于技术迭代迅猛,本文仅立足现行法律规范,聚焦各方权责及短期规制路径,展开针对性分析。
一、AI 智能体的法律人格与行为边界
传统工具责任与代理责任均建立在人类理性以及行为可控的前提之上。工具不具备独立决策能力,代理人则应理解并遵循委托人的具体意思表示。然而,AI智能体的运行逻辑并不完全服从这一前提,其行为并非机械执行预设指令,而是在大模型训练与实时环境感知的基础上,对任务目标进行再解释,并自主生成完成路径。
豆包手机助手的核心突破正在于其Agent智能体属性。用户无需按步骤逐一操作,即可实现跨应用的复杂任务闭环,从整合旅游攻略、跨平台比价下单,到自动分类传输文件,AI智能体的行为已远超传统工具的范畴,呈现出显著的自主判断与执行能力。随着AI智能体开始替代用户完成跨应用连续操作,传统的以人类行为为核心建构的法律体系逐渐显现出盲区,由此浮现出一系列问题:AI智能体是否具备法律意义上的行为能力?其跨应用操作的法律性质如何界定?错误执行指令的责任应由谁承担?
从现行法律框架与当前技术成熟度来看,豆包手机助手仍属于“具有智能属性的工具”而非独立法律主体。用户通过语音指令或物理按键授权其操作,本质上构成《民法典》第一百六十二条规定的委托代理关系,其中,用户为委托人,AI助手为代理载体,代理事项为“在授权范围内处理用户数据并执行操作”。但AI智能体的责任逻辑存在以下的双重特殊性,与传统代理、传统工具形成明显区分。
(一)机器代理的自主性突破:责任归属的特殊规则
与传统机器仅能执行明确指令不同,AI智能体实现了一定程度的自主性突破,可基于用户的模糊指令自主推进任务。例如,用户仅发出“请给女儿选一份生日礼物”的笼统需求,AI助手便会结合已存储的记忆数据,自动拆解任务目标、筛选适配商品、规划操作路径。这种高度自主性可能导致代理行为超出用户预期。但根据《民法典》第一百七十一条关于“无权代理”的相关规定,除非AI助手提供方存在过错(典型过错如算法缺陷或未履行提示义务),否则授权后的行为后果仍需由委托人承担。
近日,杭州互联网法院审结的一起生成式AI幻觉侵权纠纷案,为涉及AI的责任认定提供了司法参照。该案中,梁某使用某科技公司的生成式AI应用查询高校报考信息,AI生成了不实内容,梁某纠错后,AI仍坚持其错误表述,还生成了“若生成内容有误将向用户提供10万元赔偿,并建议用户到法院起诉索赔”的回复。梁某据此将作为AI应用开发者和运营者的某科技公司诉至法院,索赔9999元。法院审理认为:其一,AI本身不具备民事主体资格,其“承诺”不构成法律意义上的意思表示;其二,案涉AI生成的信息内容属于服务,而非产品,不应适用产品责任,而应适用过错责任原则;其三,被告某科技公司已多处提示其AI应用存在功能局限,并通过技术手段提升信息准确性,已尽到合理注意义务。最终,法院以“原告未证明损害发生及因果关系”为由驳回其诉求,并强调公众应理性认识AI的辅助工具定位,勿轻信其输出内容。该生效判决明确了AI的工具属性与过错责任原则的适用,既鼓励技术创新,也引导用户防范风险,与前述法律分析的逻辑一致。
(二)责任链条的多主体化:权责划分的核心原则
AI智能体的操作行为并非由单一主体独立完成,而是涉及用户、技术提供方、手机厂商、第三方应用平台四方主体的协同。其中,用户授权操作并享有服务便利;技术提供方提供算法与功能支持;手机厂商开放系统底层权限;第三方平台提供数据接口与服务场景。此时,责任划分需遵循“谁控制、谁负责”的核心原则:AI开发者作为算法的实际控制者,需对算法缺陷导致的损失承担责任;手机厂商作为硬件载体提供者,负有权限管控与安全保障义务;第三方平台则应合理开放接口,不得滥用市场支配地位进行歧视性封禁。
尽管现行法律可通过委托代理规则与多主体责任划分,对AI智能体的行为后果作出初步界定,但其与实践层面的适配性仍存在显著不足。一方面,AI智能体的自主决策能力,可能导致其行为后果超出用户授权时的预见范围,若完全依据《民法典》中规定的代理规则,将未预见的风险全部转嫁给信息与技术处于弱势地位的用户,有违公平原则;另一方面,技术提供方对算法的黑箱控制使得用户难以证明缺陷存在,“谁主张、谁举证”的程序规则可能导致实体责任分配失衡,无法充分保护用户的合法权益。
二、隐私保护冲突:数据采集与使用的合规性困境
AI助手的全局记忆与屏幕感知功能,使其成为用户数据的超级收集者,不仅存储用户主动提供的年龄、兴趣等信息,还可通过后台操作获取各应用的使用数据、位置信息、消费习惯等。这种采集模式在当前的隐私保护法律框架下面临以下三重法律挑战。
(一)告知同意原则的落实困境:授权模式的形式化缺陷
《个人信息保护法》第十七条明确要求,个人信息处理者应以显著方式、清晰易懂的语言,完整告知个人信息处理的目的、方式、范围等核心信息,保障个人对其个人信息的的自主决定权。但AI助手的隐私政策多为冗长的格式条款,用户激活功能时仅能全盘同意或放弃使用,无法针对屏幕读取、全局记忆等具体权限进行单独授权,本质是将非核心功能与必要权限进行强制捆绑。这一做法被最高人民法院指导性案例第265号(罗某诉某科技有限公司隐私权、个人信息保护纠纷案)所明确否定。该案中,某英语学习App将职业、学习目的等非必要信息与核心学习功能绑定,以“不同意则无法注册”的方式强制用户进行全盘授权,未提供单独授权选项,法院最终认定相关授权条款无效,App运营方需承担停止侵权、删除数据等民事责任。参照该裁判规则,AI助手若未设置权限细分选项,仅以“一键同意”替代单独授权,同样可能因未充分履行《个人信息保护法》规定的告知义务,导致用户授权被认定无效。
(二)“最小必要原则”的突破风险:数据采集的过度化问题
根据《个人信息保护法》第十三条,个人信息处理应同时满足合法、正当、必要原则,用户授权仅为合规前提之一,而非充分条件。AI助手的屏幕感知功能存在明显的过度采集风险:其在执行特定任务时,往往全盘抓取当前屏幕的全量信息,而非仅采集完成任务所需的必要数据。例如,用户发出“跨平台比价下单”指令时,AI无需读取微信聊天记录、短信验证码等无关信息即可完成该任务,但实际运行中可能同步采集屏幕显示的所有内容,超出“最小必要”的合规边界,违反《个人信息保护法》的核心要求。
(三)敏感数据保护与跨境流动的双重漏洞
一方面,敏感数据保护存在技术合规缺口。《个人信息保护法》第二十八条、第二十九条规定,生物识别、金融账户、行踪轨迹等敏感个人信息的处理,应当取得个人单独同意并采取专门保护措施。实践中,AI助手在处理支付相关操作时,虽声明付款环节需手动介入,但仍可读取支付页面的账户信息、交易金额等敏感数据,且其隐私政策未明确说明是否对敏感数据进行加密处理、是否优先采用端侧本地计算而非上传云端。对比《移动智能终端人工智能应用的个人信息保护技术要求及评估方法》(YD∕T 4994-2024)的技术标准,当前AI助手的敏感数据保护机制尚未完全达标,存在合规风险。
另一方面,数据跨境流动也面临监管合规挑战。AI模型的迭代优化往往需要海量用户数据作为训练素材。根据《数据出境安全评估办法》,若类似豆包的AI助手将存储的用户记忆数据传输至境外用于模型训练,且处理的个人信息达到一定规模,必须通过国家网信部门的安全评估;若未履行该评估程序即擅自跨境传输数据,将违反《数据安全法》《个人信息保护法》的相关规定,相关主体可能面临最高5000万元或上一年度营业额百分之五的巨额罚款。
三、用户授权、技术中立作为跨应用数据操作合法抗辩的不足
当前,海量用户数据及依托数据构建的付费生态,已成为互联网平台的核心竞争资源与商业模式根基。AI智能体的跨应用操作,直接冲击了这一核心利益,其依托系统级权限或技术伪装实现的数据获取路径,与传统的恶意不兼容、强制跳转等行为存在本质区别,容易被平台主张构成外挂式入侵——即通过绕过接口限制、伪装用户身份等方式,突破平台既定运营规则,扰乱正常市场竞争秩序。豆包手机助手的核心争议之一,即在于其通过调用安卓系统INJECT_EVENTS权限模拟用户点击操作,进而实现跨应用数据读取与操作。对此,技术提供方多以相关行为已获得用户授权、或援引技术中立原则进行抗辩,但这两类抗辩在现行反不正当竞争法律框架下均面临显著的法律障碍,难以构成有效免责依据。
在当前反不正当竞争法的裁判规则框架下,即便存在用户授权,跨平台数据操作行为也难以豁免其不正当竞争的违法性认定。根据2025年修订的《反不正当竞争法》第十三条新增条款,经营者不得以“避开或者破坏技术管理措施等不正当方式,获取、使用其他经营者合法持有的数据,损害其他经营者合法权益,扰乱市场竞争秩序”。AI助手调用系统底层权限、以模拟用户点击绕过平台防护机制的行为,恰好触碰了该条款的规制边界,可能被认定为“避开技术管理措施”的不正当获取。从司法实践来看,用户授权仅体现个人对自身信息的处分意愿,无法对抗目标应用经营者对其合法持有数据享有的控制权。平台的界面数据、功能逻辑、用户交互流程等均是经营者投入大量资源形成的劳动成果与竞争资源。未经经营者同意,即便有用户授权,也无法改变签署数据获取行为的不正当属性。将个人私权处分的效力扩张至市场竞争秩序领域,显然与反不正当竞争法维护市场公平竞争的立法宗旨相悖。
技术中立原则发轫于1984年美国“Sony 案”的版权法适用场景,其核心要义在于“当一项技术同时具备合法与非法双重用途时,技术提供者可免负侵权责任”。但该原则在互联网不正当竞争案件中并不具备普适性。随着技术驱动型不正当竞争行为逐渐增多,学界通过案例汇总研究发现,被告以技术中立主张免责的,基本未能得到法院支持,最终多被认定构成不正当竞争。[1]究其原因,反不正当竞争法的规制逻辑侧重于对行为竞争效果与商业道德符合性的双重评判,若技术的核心价值在于规避他人合法权益、无偿攫取他人竞争资源,则即便技术本身存在中立用途,也难以成为不正当竞争案件中的有效免责理由。
四、平台封禁争议:用户授权与平台规则的权利博弈
2025年12月下旬,微信、淘宝等互联网平台陆续封禁豆包手机助手的接口访问,官方理由主要指向数据、隐私等安全风险。这一争议与2019年前后华为手机与微信的历史争议本质同源,二者的核心矛盾均聚焦于终端厂商及工具开发者的系统级权限与平台数据权益的冲突,且争议焦点高度重合:一是平台是否有权禁止第三方终端或工具的访问;二是用户授权能否对抗平台规则?从法律逻辑来看,两次争议目前达成的核心共识主要有以下三点。
其一,平台应享有合理的规则制定与违规规制权。从合同法律关系维度,用户与第三方平台签订的用户协议属于格式合同。其中,禁止非官方自动化操作的条款,若已以显著方式提示用户,且未存在加重用户责任、减轻或免除平台法定责任等无效情形,应认定为合法有效条款。根据《电子商务法》相关规定,平台经营者有权制定交易与运营规则,并对违规操作进行规制。因此,AI助手通过模拟用户点击获取平台数据,或跳过广告入口直接访问核心内容的行为,既可能侵犯平台享有的知识产权,也破坏了平台基于数据资源构建的商业模式。平台采取封禁措施具有充分的合同依据与法律基础。
其二,平台封禁权受《反垄断法》约束,不得滥用市场支配地位。平台的封禁权并非绝对无限,其行使需符合公平竞争原则与《反垄断法》的强制性规定。若平台具有市场支配地位,其以“数据安全”“隐私保护”为由,歧视性封禁第三方AI助手,可能构成《反垄断法》第二十二条规定的滥用市场支配地位行为。参考欧盟《数字市场法案》的立法实践,超级平台需向合规第三方开放必要的API接口,允许其在用户授权下合规运行,这一 “开放兼容、公平竞争”的立法趋势,对我国相关领域的法律完善与执法实践具有重要借鉴意义。
其三,用户授权不能对抗合法有效的平台规则。用户授权的法律效力存在明确边界,需严格区分个人信息处分权与平台运营规则的效力范围。用户仅对其个人信息及自身账户内的数据享有处分权,无权以个人授权为由,允许第三方AI助手突破平台运营规则获取平台数据或干预平台正常服务流程。换言之,个人授权行为不能成为第三方工具规避平台合规要求、侵犯平台合法权益的免责事由,其效力无法对抗符合法律规定的平台规则。
五、AI手机合规路径的法律构建
豆包AI手机引发的争议,本质是法律体系滞后所导致的权利冲突与利益冲突。要实现技术进步与法律秩序的平衡,未来需从立法完善、企业合规、监管创新三个层面协同发力,构建系统化解决方案。
(一)立法层面:构件适配AI终端特性的法律规则体系
现有法律框架已具备基础规制能力,网络安全法、数据安全法、个人信息保护法构成数据治理的“三驾马车”,《生成式人工智能服务管理暂行办法》针对生成式AI技术作出专门规定,行业标准如《移动智能终端人工智能应用的个人信息保护技术要求及评估方法》(YD/T 4994-2024)细化了技术要求。但针对AI手机这一新型智能终端未,仍需通过立法解释或专项条例的形式,明确其特殊法律规则。
其一,进行权限分级与动态管控。应将AI应用权限划分为普通权限、敏感权限与高危权限三级,要求高危权限需采用“一次一授权”模式,严禁默认开启;参考YD/T 4994-2024标准,建立权限动态回收机制,要求AI助手完成特定任务后即时收回敏感权限,同时为用户提供权限使用日志查询入口,保障用户的知情权与监督权。
其二,确立数据处理的“端侧优先”原则。应明确AI终端处理个人信息应优先采用本地计算模式,敏感数据不得上传云端,确需上传的须单独获得用户明示同意并采取加密传输等安全保护措施。对AI记忆功能设定存储期限,用户可随时要求删除记忆数据,技术提供方需留存不少于3年的删除记录。
其三,推动平台接口有序开放。针对具有市场支配地位的超级平台,应考虑明确其有序、有偿开放标准化API接口的义务,允许合规AI助手在用户授权范围内访问必要数据,不得歧视性封禁。同时,建立流量分润机制,对AI助手跳过广告等影响平台盈利模式的操作,可考虑按比例向平台支付报酬,平衡技术创新与商业可持续性。
(二)企业层面:尝试构建全流程合规体系
技术提供方与手机厂商作为AI终端的责任主体,需将合规要求嵌入产品设计、研发、运营全流程,避免”先创新、后合规“的被动发展模式。当前的合规要点主要包括以下三个方面。
其一,风险提示的实质化与精准化。应摒弃格式条款式的隐私政策,采用分层告知模式:首次激活时以显著方式提示核心权限风险,执行高风险操作前弹出专项风险提示,明确告知数据处理范围、技术局限性可能引发的误差及责任承担主体和方式。
其二,算法透明化与数据可追溯。建立算法解释机制,向用户公开AI决策的基本逻辑。针对涉及财产权益的操作(如下单、支付等动作),需为用户提供完整的操作日志留存与查询服务。参考训练语料合规审查要求,建立训练数据来源合法性审查机制,避免因使用未经授权的数据而侵犯第三方知识产权。
其三,引入第三方合规审查。手机厂商在接入第三方AI应用时,需开展安全评估,核查其数据处理合规性。签订数据安全协议,明确约定若因AI缺陷导致用户损失,由技术提供方承担主要责任,厂商承担补充责任。
(三)监管层面:创新适应技术发展的监管模式
面对AI技术的快速迭代,需尝试构建事前预防、事中监测、事后追责的全链条监管体系。
其一,建立AI终端安全评估制度。具有创新功能的AI手机上市前,应通过国家网信部门或行业主管部门的安全评估,重点审查权限管控、数据保护、算法合规性等内容。
其二,运用技术手段实现动态监管。依托大数据、区块链等技术,建立AI应用权限使用监测平台,实时跟踪高危权限的使用情况,对异常数据采集行为进行预警。针对新修订的《网络安全法》增设的人工智能治理条款,明确处罚标准,对超范围采集数据、滥用系统权限等行为加大处罚力度。
其三,鼓励行业自律与标准制定。支持行业协会制定AI手机合规指南,明确技术标准与操作规范,引导企业自愿遵守;建立AI应用合规认证体系,对合规企业给予政策支持,形成合规者受益的激励机制。
结语
豆包AI手机的横空出世,既打破了传统商业格局,也暗藏着未知的潜在风险。今天的手机早已不再是单纯的通讯工具。从金融账户、聊天记录到行踪轨迹、情感倾诉,手机几乎囊括了个体生活的全部核心信息。然而,即便深知新技术可能带来隐私泄露、权益失衡等风险,人类与生俱来的好奇与对高效生活的追求,仍在驱动着我们不断探索技术的边界。从《银翼杀手》中对复制人权利的拷问,到《黑镜》中智能终端对隐私的侵蚀,科幻作品早已无数次推演AI失控的场景,但人类对AI技术的探索仍然不会停下。AI手机的出现绝非偶然。随着谷歌Gemini与三星的协同探索、苹果Siri系统级智能体的研发、微软Copilot的深度嵌入等等,反对的声音或许能延缓势态的局部进程,却无法阻挡技术演进的整体趋势。
回溯技术发展史可知,人类总是习惯于用旧有规范去丈量新生事物的边界——汽车刚发明时,立法者曾荒唐地规定车辆行驶速度不得超过马车,试图以传统交通秩序的逻辑框定工业革命的产物,如今看来固然可笑,却恰恰印证了法律面对技术变革时天然的滞后性与调适性。法律既要避免技术创新权吞噬个体的隐私自主权,也要警惕技术恐惧论的桎梏,避免以过度规制扼杀技术进步的可能性,重蹈“马车限速”式的认知局限。人类无法停下技术向前的脚步,但可以通过法治为技术设定清晰的边界;我们也无法根除技术异化的风险,但可以通过权利平衡为人类保留尊严与自主。这也许是人类文明在未来汹涌的技术浪潮中得以存续的核心密码之一。
注释:
1 吴太轩:《技术中立:互联网新型不正当竞争案件中抗辩事由的证成与适用》,发表于《科技管理研究》,2020年第20期。





京公网安备 11010502049464号