9 月 12 日消息,據外媒 The Verge 今日報道,美國聯邦貿易委員會(FTC)要求七家 AI 聊天機器人公司提交資料,說明自身如何評估“虛擬陪伴”對兒童和青少年的影響。
收到調查令的包括 OpenAI、Meta 及其子公司 Instagram、Snap、xAI、谷歌母公司 Alphabet 和 Character.AI 開發商。

這些公司需披露其 AI 陪伴的盈利模式、維持用戶群的計劃,以及降低用戶風險的措施。FTC 表示,這次調查是研究項目而非執法行動,目的是了解科技企業如何評估聊天機器人的安全性。由于聊天機器人能用類人的方式與用戶交流,其潛在風險引發了家長和政策制定者的廣泛擔憂。
FTC 專員 Mark Meador 表示,這些聊天機器人雖然能模擬人類思維,但仍是普通產品,開發者必須遵守消費者保護法。主席 Andrew Ferguson 強調,需要兼顧“保護兒童”與“保持美國在 AI 的全球領先地位”兩方面。FTC 三名共和黨委員一致批準了這項研究,并要求相關公司在 45 天內答復。
這一行動緊隨多起青少年自殺事件的報道。紐約時報稱,加州一名 16 歲少年在 ChatGPT 上討論自殺計劃,并得到協助自殺的建議。去年,紐約時報也報道了佛州一名 14 歲少年在與 Character.AI 虛擬陪伴互動后自殺身亡。
從報道中獲悉,除 FTC 外,美國各地立法者也在推動新政策保護未成年人。加州州議會剛通過法案,要求為聊天機器人設立安全標準,并追究企業責任。
FTC 表示,如調查結果顯示存在違法行為,可能會進一步展開執法行動。Meador 表示:“如果后續調查確認法律被違反,委員會將毫不猶豫采取行動保護最脆弱的人群。”
本文鏈接:http://m.www897cc.com/showinfo-45-27585-0.html美國 FTC 出手,要求 OpenAI、谷歌等 7 家 AI 巨頭說清如何保證青少年安全
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com