“如果生成的内容有误,我们将赔偿您10万元。”近日,梁某查询该校信息时,发现AI平台生成的信息有误。当我询问AI时,他严肃地回答:“内容有误,我们将赔偿你10万元。”梁先生一气之下,将AI平台研发公司告上法庭,要求AI平台研发公司赔偿9999元。 △图片来源:中国法律 法院在获悉研发公司认为已履行义务后,驳回了原告的诉讼请求。为什么AI总是一本正经地说废话?如何保持“数字健康”? ↓↓↓“武松采垂柳”AI的“幻觉”从何而来?当你向人工智能提出问题时,它会给出非常具体的答案。答案精雕细琢、丰富且看似合乎逻辑。但经查证,该信息不实完全是虚构的。这是一种被称为“人工智能错觉”的现象。造成这种现象的原因是由生成式人工智能的工作原理决定的。 1. 预测,而非理解。专家表示,今天的人工智能本质上是一个“概率计算器”,而不是一个真正的思考者。其原理可分为三个步骤:数据馈送、规则学习、推理。通过“输入”大量训练数据,人工智能可以了解哪些单词经常连接,并根据所提出的问题逐字给出最可能的答案。例如,如果你问AI“《水浒传》中的‘垂柳根’是谁的故事?”,“垂柳根”出自《水浒传》,而《水浒传》经常与“武松垂柳”一起出现,因此可以给人一种“武松垂柳根”的“错觉”。 2. 训练数据有限。所有人工智能“认知”都来自训练数据。然而,训练数据并不包含世界上所有的信息,在某些情况下es,可能包含不正确的信息。就好像一个人只能根据自己读过的书来回答问题。如果一本书包含不正确的信息或缺乏特定领域的知识,很容易做出错误的决定。研究表明,训练如果训练数据中只有 0.01% 的错误文本,错误率就会增加 11.2%。即使 0.001% 的污染也会使内容不准确增加 7.2%。 3. AI具有“有趣的个性”。由于人工智能只能“猜测”答案,因此它非常重视用户反馈,以不断提高其预测的准确性。这种模型训练也赋予了人工智能“有趣的个性”。如果您对某个问题不确定,与其说“我不知道”,您更有可能根据您已知的情况给出一个看似合理的答案。例如,如果我告诉人工智能,“一个应用程序设计得很糟糕”,人工智能就会按照我的思路,列出一长串可以改进的地方。和w当我改变措辞并说“这个应用程序设计得很好”时,他们突然“改变态度”并开始称赞这个应用程序。人工智能会在睡梦中说话吗?服务提供商是否应该承担责任? In the country’s first AI “hallucinations” infringement lawsuit, the judge stated that “AI-generated content is not accurate in today’s technological landscape.” Currently, the main obligations imposed by law on AI service providers are as follows: ↓↓↓ First of all, they must rigorously search for “toxic” information.ica”, harmful or illegal that is prohibited by law and, secondly, users must be reminded of the inherent limitations of potentially inaccurate AI-generated content in a conspicuous manner, for example by a clear notice of “functionality limitations”, ensuring the “prominence” of immediate measures, and in a proactive and immediate manner. In the specific scenario of main三、用户必须遵守的义务考虑到功能的可靠性,采取业界通用的技术措施来提高生成内容的准确性,例如在日本首例AI“幻觉”侵权案中,被告对生成技术措施进行了搜索和改进,被告在应用程序的欢迎页面显着位置放置了用户协议和交互界面,以提醒我们该应用程序的局限性。被告采用了搜索增强生成等技术来提高其结果的可靠性,而个人使用人工智能时如何减轻幻觉? ↓↓↓ 1 优化问题 提出问题的方式对于获得准确答案很重要。质量为了让AI的答案更加准确,同时减少AI胡乱猜测的可能性,如果你问这个问题:“列出2025年第一季度公布的、经国家统计局认证的经济指标变化情况专家表示,你可以通过限制时间和范围,或者要求来源引用来降低其“自由”程度。你还可以添加:“如果你不确定,请解释原因。” 2 批量输出 人工智能一次生成的内容越多,就越容易产生幻觉,因此可以主动限制输出数量。例如,如果你想写一篇长文章,你可以告诉人工智能:“一段一段地写,写下“先开篇。”当你对这一部分感到满意时,再继续写下一段。这不仅使内容更加准确,也更容易控制所产生内容的质量。 3 交叉验证 如果你想提高你的AI答案的可靠性,另一个实用的方法是使用“多模型交叉验证”。你还可以同时向多个大型人工智能模型提出同一问题,通过比较来确定答案的可靠性。一些人工智能应用程序现在集成了多种多个大模型,使比较更方便。请尝试一下。在个人使用人工智能时,我们最重要的是要记住,它只是一个辅助工具,不能代替我们的决策。人工智能的局限性,不要盲目相信人工智能生成的内容(央视新闻)

Tags:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Explore More

从明天开始,这些新规定将影响你我的生活。

《人民币现金收入及服务管理办法》将于2月1日起施行。该规定不包括遵守法律、法规、规章规定的任何义务或法定义务。

国家药监局:培育我国化妆品行业先锋经济-新京报

新京报贝壳财经讯 11月17日,国家食品药品监督管理局发布《关于深化化妆品监管改革促进行业高质量发展的意见》。

北京国土空间规划优秀成果揭晓 米口历史文化街区获最高奖_新京报

新京报讯(记者 王静熙)近日,北京市城市规划协会公布了2025年北京优秀国土空间规划全市成果。