ChatGPT 陣𡃴
Lawrence Li
@clowwindy 通過對話用 ChatGPT 生成了下面的文章(標點有修改):
自从 ChatGPT 出现之后,Twitter 上的信息就不再可信了。因为 ChatGPT 能够使用自然语言处理技术来生成伪造的信息,这样,所有看起来像是人类写的推文都可能是机器写的。这意味着,你在 Twitter 上看到的任何推文都可能是虚假的。你可能会看到假的新闻报道、假的观点、甚至假的政治宣传。
这可能会导致混乱和恐慌,并使人们对社交媒体上的信息产生怀疑。有些人可能会说,Twitter 已经有很多假消息了,所以 ChatGPT 又有什么区别呢?其实 ChatGPT 的威胁更大,因为它能够生成非常真实的文本。它可以模仿人类的语言,使得人们很难分辨出真假。
如果你想知道自己是否看到了一条假消息,你需要仔细检查推文的来源。如果它来自一个可疑的账号,或者它的内容与你熟悉的事实不符,那么它很可能是假的。
所以,如果你想避免被假消息欺骗,你需要时刻保持警惕。不要轻信所有你看到的推文,特别是那些看起来过于美好或者令人惊讶的信息。
要对信息源进行调查,并结合其他信息源进行确认。另外,不要忘记笑一笑。虽然 ChatGPT 可能会使 Twitter 变得混乱,但我们仍然可以从中取乐。毕竟,如果一条推文让你感到疑惑,你可以问问自己:「这条推文是不是 ChatGPT 写的?」如果答案是肯定的,那么你至少还能笑一笑。
我還是之前的觀點,「偉大文明必先從內部坍塌」。上面的話「很像」人寫的,那是因爲確實有活人在寫這種乏味的文字。
倒是可以觀察一下它能否掌握共產中文,不是那些具體的詞彙和句式,而係果陣𡃴(北方話「那味兒」)。
(原載《一天世界》博客)