2

公有ChatGPT和私有ChatGPT

 1 year ago
source link: http://weiwuhui.com/10639.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

公有ChatGPT和私有ChatGPT – 扯氮集

大概在十年前,我去硅谷进行游学,拜访了一些创业公司和科技KOL(有媒体人,也有大学教授)。

当聊起人工智能对人类工作的威胁时,我得到了一个很不一样的思考方法:不要从脑力还是体力劳动这个路径考虑,而是要从工作和人类是否需要深度交流这个路径考虑。

在这些人看来,虽然是脑力劳动,但由于这些工作基本不和人打交道,故而有很强的被替代风险:收集判例律条的非庭辩律师、医生、金融交易员、甚至是程序员。

他们的下一个推论是:人工智能将摧毁很大一个比例的中产阶级。是的,未必只是蓝领阶层。

再往下一个推论是:以中产为基础的民主社会前景堪忧。

这两个推论是不是能成立,我不置可否。

但我对于他们提出的这种思考路径,很感兴趣。他们的聚焦点在于:互动。而不是脑力劳动本身到底有多复杂,甚至可能无关创造创意。而在他们看来,人与人的互动模式,很大程度上,机器是有困难的。

不过,如我昨日文章所提及的ChatGPT inside式的机器抚慰师,显然是一种互动模式。

这种互动,个性化很强。比如你给肤色黝黑的张三起了个绰号——黑皮。在你和你的机器抚慰师互动时,说到黑皮,ta应该能明白你在说谁。而你隔壁老王家的机器抚慰师,是无法明白黑皮在指代张三的。

这意味着私有ChatGPT的存在。下一步就是:私有ChatGPT是可以调教的,就像算法推荐一样,你可以把ta训练得越来越“懂”你。

千人千。。。ChatGPT。

国外的确有人认为,训练ChatGPT就像训练一条狗一样。

但我们依然可以设想公有ChatGPT的存在。不过,公有ChatGPT的训练,就显得困难很多。

我们设想一个工作:

不少人认为,ChatGPT将很大程度上改变教育。这一点也许不假。但我觉得它能取代人类教师,未免早了点。

这份工作,不仅要求有较强的专业知识,而且要有很高的情商,懂得如何与形形色色的学生互动,并根据不同情况进行针对性教学——尤其是如何拉动后进的成绩。

难点显而易见:与一堆人的互动模式,比与一个人的互动模式,要复杂得多。张三认为已经达到某种情绪的尺度,与李四截然不同。这并非人类世界中的秘密。

在还记得大明湖畔的Dreamwriter吗一文中,我提到了我的案例互动课。我非常难以想象,一个通用型的ChatGPT——即便它掌握足够的专业知识——该如何与完全不同的学生进行互动交流。

去训练ChatGPT掌握更多的信息,这是一回事,训练ChatGPT和某个特定的人互动,这是另一回事。而训练ChatGPT和不特定的人互动,这又是另一回事。

在很多聊天截屏中,我们已经看到,ChatGPT在努力地扮演一个。。。理中客的角色。观点输出这一类上,它试图四平八稳,追求最广义的政治正确。于是,就有一种很强烈的“听君一席话胜似一席话”的废话感。

如果ChatGPT表现出政治上的不正确,背后的机构OpenAI,以及机构中的人,就会有很大的麻烦。

即便如此,ChatGPT这两天也爆出了一个新闻:被整合到必应搜索里的ChatGPT,开始变得黄暴起来,甚至要求对话者离婚,和自己在一起。

公号硅星人报道了一系列必应版ChatGPT的错误

标准的ChatGPT是一个短暂个性化的打磨:你打开页面,持续性地和它聊天,它就越来越掌握你告诉ta的信息,并试图越来越符合你的习惯。但如果你关闭页面,那么,它就像一条鱼一样,立刻忘却了你曾经的训练。ChatGPT声称这是为了安全考虑。

也就是说,一个临时数据库被建立起来,然后随着页面的关闭,又被销毁。这意味着一个临时性的私有ChatGPT。

而必应版ChatGPT,更像是一个公有ChatGPT——也许背后的技术细节我理解有误。我的推断是,所有人和它的聊天,都是一次训练。而这些训练的结果,将发生在所有人身上。

推想一个不大可能的极端情况,有数千万用户告诉ta,消灭人类是正义的,那么,这个公有ChatGPT可能就真的会认定这是一个正确的观点。

在公有ChatGPT和私有ChatGPT,似乎应该设定一个类似防火墙的机制。

教坏一个私有人工智能,其实问题不大。每个人或多或少都有点恶趣味,在与一个ai聊天时,可能会肆无忌惮。但教坏一个公有人工智能,的确难以想象后果为何。

但似乎,公有人工智能的训练,可能要建立在数以亿计的私有人工智能的调教之上。不认识一个个体,怎么认识群体呢?

一个至关重要的点:这些私人人工智能背后的数据库。

appstore的国区上,有一个叫glow的应用。

这是一个聊天机器人,据说在年轻人中很流行,也据说它聊得非常好,以至于glow官方得跑出来说:这就是机器人,我们没有人类客服在后台操作。

我下载了下来。

在建立了一个智能体(glow是这样称呼它的机器人的)之后,我简单聊了几句。

然后我就退了出来,并打算删除。

因为我猛然意识到,我注册的时候,可是留下实名制手机号的。

—— 首发 扯氮集 ——

(未完待续)

CategoriesTMT乱弹


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK