Bing没有知觉,没有感觉,没有生命,也不想活着

˂pclass="zhuxiaoheicnzhuxiaoheicnbf3f-8ade-021f-7a11zhuxiaoheicnzhuxiaoheicn description"˃˂pclass="zhuxiaoheicnzhuxiaoheicn8ade-021f-7a11-6730zhuxiaoheicnzhuxiaoheicn description"˃生成文本的人工智能越来越擅长令人信服——甚至好得吓人。本周,微软的人工智能聊天机器人必应(Bing)在网上疯传,因为它会给用户激进...

生成文本的人工智能越来越擅长令人信服——甚至好得吓人。本周,微软的人工智能聊天机器人必应(Bing)在网上疯传,因为它会给用户激进、欺骗性和粗鲁的回答,甚至会痛骂用户,扰乱他们的大脑。当然,令人不安,但随着围绕必应和其他人工智能聊天机器人的炒作越来越大,值得记住的是,它们仍然是最重要的一件事:真的,真的很笨。

周四,《纽约时报》撰稿人凯文·卢斯(Kevin Roose)发布了他与新型必应聊天机器人(由OpenAI的大型语言模型支持)两小时对话的文字记录。在这篇题为《必应的人工智能聊天揭示了它的感受:‘我想活着’》的文章的介绍中,他写道,最新版本的搜索引擎已经“配备了先进的人工智能技术”,并在一篇配套文章中分享了他的印象:“我感到一种奇怪的新情绪——一种预感,人工智能已经跨越了一个门槛,世界将永远不会是原来的样子。”

卢斯最印象深刻的是必应聊天分享的“情感”,比如爱上他,想成为人类。然而,卢斯与必应的对话并没有表明它是聪明的,或有感情的,或值得以任何暗示它有的方式接近。

自上周二发布消息以来,微软的聊天机器人必应(Bing)被报道存在一系列问题。首先,在微软对该项目的公开演示期间,它犯了几个错误,包括编造宠物吸尘器的信息,以及在回应中报告不真实的财务数据。最近,用户一直在报告该聊天机器人“粗鲁”和“咄咄逼人”,比如有用户告诉必应,它容易受到即时注入攻击,并向它发送了一篇相关文章。在卢斯的谈话中,聊天机器人告诉他,“你的婚姻并不幸福。你和你的配偶并不相爱。你们刚刚一起吃了一顿无聊的情人节晚餐。

本文来自作者[admin]投稿,不代表时时号立场,如若转载,请注明出处:https://sq.zhuxiaohei.cn/shishihao/385.html

(30)

文章推荐

发表回复

本站作者后才能评论

评论列表(4条)

  • admin
    admin 2025年12月25日

    我是时时号的签约作者"admin"!

  • admin
    admin 2025年12月25日

    希望本篇文章《Bing没有知觉,没有感觉,没有生命,也不想活着》能对你有所帮助!

  • admin
    admin 2025年12月25日

    本站[时时号]内容主要涵盖:

  • admin
    admin 2025年12月25日

    本文概览:˂pclass="zhuxiaoheicnzhuxiaoheicn234a-b18c-dfc4-bf3fzhuxiaoheicnzhuxiaoheicn description"˃迷地鞋深受成熟女性的喜爱,而知名品牌也不让你忘记一个关于他们,即使在秋天和冬天。在寒冷的天气里,温暖的针织模特可以很好地塑造身材。你会在主页上找到更多有趣的文章...

联系我们

邮件:88888@sina.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注我们