摘要:人工智能的快速發展及人工智能生成物的爆發式增長引發了數據風險及監管難題。為明確AIGC的溢出風險并確立相應的監管規則,通過梳理AIGC在各典型應用場景的發展現狀,厘清了AIGC存在的數據污染風險、信息泄露風險、數據歧視風險和通用性倫理風險。通過對比國內外AIGC監管的制度內容,發現當前監管模式存在人力監管能力不足、“產品”質量標準缺失、數據歧視監管規則缺失、分級管理規則模糊四個方面的缺陷。相應地,提出了建立以技術監管規則、質量標準規則、無歧視規則、分類分級規則等為基本內容的AIGC監管體系。
關鍵詞:人工智能生成物;風險溢出;技術監管;質量標準;無歧視規則
原文刊發于《行政法學研究》2025年第2期