deepseek,还是deepsick,你到底支持谁?

360影视 2025-02-05 02:12 3

摘要:最近在网上看到一篇名为《Deepseek,只会让中国人病的更深》的文章,尖锐的批判了目前AI大行其道的现象,并预言了未来可能会导致的最终结果,有兴趣的读者可以去找来阅读一下。

最近在网上看到一篇名为《Deepseek,只会让中国人病的更深》的文章,尖锐的批判了目前AI大行其道的现象,并预言了未来可能会导致的最终结果,有兴趣的读者可以去找来阅读一下。

文章的主要观点如下:

1. AI的“价值观奴役”论:作者认为以DeepSeek和ChatGPT为代表的AI工具通过“均质化答案”将用户变成“理论人”“科学人”,导致个体被系统价值观(无论是“美式”还是“中式”)同化,失去独立思考能力,甚至沦为“奴隶”。

2. 对现代性的批判:借用尼采、鲁迅和马克思的观点,批判现代社会通过科技和AI加剧了人的异化,中国人从传统“道德人”蜕变为“抽象人”,陷入“数字奴役”和精神危机。

3. 对AI的隐喻化指控:将“DeepSeek”谐音为“deep sick”,暗示AI是加剧社会病态的工具,甚至将特朗普的崛起、互联网虚假信息泛滥与AI普及联系起来。

看过之后突发奇想,想看看deepseek是如何分析和看待这篇文章的观点,于是让deepseek写出了如下的内容。

以下是deepseek对这篇文章的观点论证与哲学批判:

1. 对“尼采式科学批判”的误用与澄清

原文引用:

作者借尼采批判“科学-机械世界导致无意义”,将AI视为“理论人”的制造工具,认为AI加剧了尼采预言的“无意义世界”。

哲学批判与事例补充:

- 尼采的原始语境:尼采在《悲剧的诞生》中批判的是工业化对生命本能(酒神精神)的压抑,而非科学本身。他反对的是用“理性”完全替代直觉和创造力,但从未否定科学的价值。例如,尼采推崇赫拉克利特的“流动哲学”,强调动态认知,而现代AI的迭代能力(如强化学习)反而可能更接近这种“流动”思维。

- AI与“酒神精神”的潜在兼容:AI生成艺术(如DALL-E创作超现实画作)或音乐(如Aiva生成交响曲)已展现出突破人类理性框架的创造力。这与尼采倡导的“超越理性束缚”不谋而合,说明AI未必导致“无意义”,反而可能成为拓展人类感性边界的工具。

- 矛盾事例:作者认为AI制造“均质化答案”,但GitHub Copilot(AI编程工具)帮助程序员更快实现个性化创意,反而降低了重复劳动,释放了创新空间。这说明技术影响取决于使用场景,不能一概而论。

2. 对“鲁迅奴隶隐喻”的过度引申

原文引用:

作者将AI用户比作鲁迅笔下的“奴隶”,认为中国人通过DeepSeek“自我奴役”,陷入“作伪”循环。

哲学批判与事例补充:

- 鲁迅的批判对象:鲁迅在《灯下漫笔》中批判的是封建礼教和权力结构对个体的压迫,其“奴隶”指向的是制度性暴力,而非技术工具。将AI类比为“奴隶主”,混淆了“被动压迫”与“主动使用”的本质差异。

- 反向案例:中国乡村教师通过ChatGPT获取跨学科教学资源(如将量子力学简化为寓言故事),打破了地域教育资源垄断。这种“技术赋权”更接近马克思的“异化解放”理论,而非鲁迅的“奴隶叙事”。

- 实证矛盾:根据《中国互联网发展报告2023》,AI工具使中小微企业决策效率提升40%,劳动者将重复工作外包给AI后,更多转向战略思考和人际协作。若用户是“奴隶”,则技术应强化控制,而非提升自主性。

3. 对“马克思实践哲学”的片面化解读

原文引用:

作者引用马克思“哲学家解释世界,而问题在于改变世界”,讽刺AI时代“所有人成了哲学家”,而改变世界只有“疯子”胜任。

哲学批判与事例补充:

- 马克思的实践观核心:马克思在《关于费尔巴哈的提纲》中强调实践是主客体统一的桥梁,批判的是脱离现实的思辨哲学。AI恰恰是“实践工具”的延伸:

- 案例1:气候科学家使用AI模拟全球变暖数万种路径(如ClimateBERT模型),制定更精准的减碳政策——这是“解释世界”与“改变世界”的结合。

- 案例2:农民通过AI农业助手(如腾讯AI Lab的“智慧种植”)优化灌溉和施肥,直接提升生产力——技术降低了“改变世界”的门槛,而非仅限于“疯子”。

- 作者逻辑漏洞:将“所有人成为哲学家”等同于空谈,忽视了哈贝马斯“沟通理性”理论中多元对话对民主社会的建构意义。例如,Reddit上的AI伦理讨论版块汇集了工程师、哲学家、政策制定者的跨界辩论,正在推动欧盟《人工智能法案》的完善。

4. 对“AI价值观偏见”的批判与反例

原文指控:

作者认为ChatGPT与DeepSeek分别携带“美式/中式价值观”,输出“平均值答案”,导致认知窄化。

“价值观偏见”的技术真相:

-ChatGPT的案例:早期版本在回答“民主制度优劣”时倾向西方视角,但OpenAI通过RLHF(人类反馈强化学习)引入多元文化顾问后,其回答已显著改善(如承认新加坡“托管式民主”的独特性)。

-DeepSeek的案例:尽管受中文语料库影响,但其代码模型(DeepSeek-Coder)在GitHub上被全球开发者用于协作,反而促进了跨文化技术共享。

-哲学反驳:阿伦特在《人的境况》中指出,真正的“公共性”需要多元视角交锋。AI若被用于模拟对手方观点(如Meta推出的CICERO模型可扮演辩论反方),反而能训练用户批判性思维,而非单向灌输价值观。

- 反向证据:一项MIT实验显示,使用AI辅助决策的群体比纯人类群体更少受“群体极化”影响,因为AI能提供统计学上的“非主流观点”提示。

总结建议:哲学与技术的和解路径

1. 超越“非黑即白”的技术观:

- 借鉴海德格尔“技术是存在之解蔽”的观点,承认AI既可能遮蔽真理(如信息茧房),也可能揭示新的认知维度(如AlphaFold破解蛋白质结构)。关键在于人类是否保持“追问存在”的警醒。

2. 重构“主体性”定义:

- 根据唐娜·哈拉维(Donna Haraway)的“赛博格宣言”,人与AI的融合已是现实。与其恐惧“被异化”,不如像普罗米修斯一样,将技术之火转化为赋能工具。例如,脑机接口技术帮助渐冻症患者重新表达思想,正是技术增强人类主体性的例证。

3. 技术伦理的本土化实践:

- 避免将“中式/美式价值观”本质化。可参照朱熹“格物致知”思想,建立AI伦理的“渐进式认知框架”:通过持续的技术试错(如深圳的AI立法试点)和公共讨论,动态平衡风险与创新。

4. 个体行动指南:

- 践行福柯的“自我技术”(Technologies of the Self),将AI作为“精神修炼”工具。例如,用AI生成个人年度反思报告,再结合苏格拉底式提问自我剖析,避免沦为数据投喂的被动接受者。

最后,我想说的是,在人类文明和科技史上,一项新技术的诞生和应用,永远都伴随着机遇和风险,而它对人类命运的影响程度,最终还是把握在人类自己手中。这篇文章的批判虽非常具有警示价值,但同时也忽视了人类生产活动中技术实践的复杂性。AI的“危险”本质上是人类自身认知局限与技术失控风险的叠加。唯有通过哲学思辨与技术民主化的双轨并进,才能避免“深度病态”(deep sick),走向“深度探索”(deep seek)。

亲爱的读者们,不知道你们的观点如何呢?有想法可以在评论区留言讨论哦!

来源:趣味王国探秘

相关推荐