意見ai繪畫生成器(ai繪畫為您提供靈感)

2023年4月11日,國家互聯網信息辦公室發布關于生成式人工智能服務管理辦法(征求意見稿)》公開征求意見的通知:為促進生成式人工智能技術健康發展和規范應用,根據《中華人民共和國網絡安全法》等法律法規,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》,現向社會公開征求意見。公眾可通過以下途徑和方式提出反饋意見:

* 今日頭圖使用文心一格創作, 關鍵詞“人群低頭看手機,走在街道上,科技潮流,未來城市,賽博朋克”

圖/史杰利用“蘇州”等關鍵詞生成的AI繪畫作品

顯而易見,AI繪畫正在縮短普通人與專業畫家之間的距離。據視覺設計工作者介紹,目前這些AI繪畫平臺多布局于海外,代表平臺如DALL-E 2和Stable Diffusion等。在國內,百度于今年8月上線了中文版的AI繪畫工具“文心·一格”。除了依據關鍵語句生成畫面的AI外,還有不少可以添加圖片指令,形式可謂五花八門。部分AI內含的圖片數據庫容量最高可以達到100000GB。

此外,網易LOFTER決定將“頭像生成器”功能測試入口調整到“頭像框中心”,生成圖片僅可作為平臺頭像使用,不提供下載和發布功能。后續,還將針對平臺中AI內容增加更多管理細則,嚴禁AI生成內容以“原創作品”形式發布,并增加“AI 內容冒充原創”的反饋渠道;上線平臺作品反AI爬取功能,尊重和保護創作者不希望被“AI 學習、訓練”的意愿;平臺將設計更合理的產品機制,區分AI內容與原創作品,以免影響原創作品傳播。

“不敢稱呼自己為藝術創作者。”

國內的提供者可能以往容易忽視這些規定和限制,但新規施行后,都要承擔起相應的責任和義務了。

有網友擔心這才剛起步就開展監管是不是太早了?在追趕海外同行的情況下會不會造成阻礙?

AI搜集他人作品再創作,究竟屬于學習,還是抄襲?北京盈科(蘇州)律師事務所律師潘肖英認為,目前法律上還難以界定AI繪畫構成抄襲的標準。然而有一點可以肯定,如果內容生成過程中,創作者投入了自身的智慧和付出,則可以認定為法律意義上的作品。換句話說,如果使用者運用了個性化的安排,AI繪畫無論學習了多少素材,學習程度如何,最終生成的作品都可以體現出獨創性。使用者的相關權益受到法律保護。

他們還與HaveIBeenTrained網站合作,允許藝術家在Stable Diffusion的訓練數據集中搜索自己的作品并選擇刪除。

法律、行政法規沒有規定的,由網信部門和有關主管部門依據職責給予警告、通報批評,責令限期改正;拒不改正或者情節嚴重的,責令暫停或者終止其利用生成式人工智能提供服務,并處一萬元以上十萬元以下罰款。構成違反治安管理行為的,依法給予治安管理處罰;構成犯罪的,依法追究刑事責任。

AI繪畫一路高歌猛進,向各個領域發起沖擊,而感受最深、顧慮最多的無疑是美術從業者們。

結果:現在可以使用 AI Positron AssistantAI Positron Activity側視圖。

隨著人工智能技術的發展,資本玩家加速落地各類AI應用,虛擬人、數字人、自動化應用等產品層出不成,AI生成圖片、文字、音頻、視頻等內容也漸漸走入了手機、畫廊、商店、家庭、學校……

市場上還有其他觀點,即AI繪畫有利也有弊。有人認為AI繪圖工具過于強大或許會加劇仿品、假貨等亂象,也有人認為AI繪畫僅是單純的根據算法模仿和粘貼,根本沒有再創作的能力,這樣過度模仿會引發畫師和AI之間的矛盾……

伴隨AI繪畫的興起,爭議始終存在。就在今年2月,畫師“卜爾Q”的名字也上過微博熱搜:他公開的一張為游戲《白夜極光》供稿的宣傳圖,被網友發現了AI繪畫的痕跡——女孩的右腳畫反了。對此,畫師本人回應稱,“成圖中在一些局部出現了不妥的處理方式”。

分析發現,Native 論文(即作者列表中至少有一位英語母語者)和非匿名論文的參考評審和生成評審得分更高。具體結果參見下圖:

有意義的對比(CMP)

可靠性 / 正確性(SOU)

由此,AI繪畫自誕生之日開始,“抄襲論”便始終如影隨形。不少美術從業者感到自己受到了侵犯。畢竟AI學習他們的成果并沒有經過他們的許可,自己所鉆研出的技巧和風格被直接搬運。這對個人的獨創性無疑是沉重打擊。一時間,抵制AI學習的聲浪不絕于耳。一家日本繪畫服務平臺的AI學習功能甚至被畫師們投訴到暫停下架。

多位從業者表示這意味著“野蠻生長的時代要結束了”

本辦法所稱生成式人工智能,是指基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。

按照《互聯網信息服務深度合成管理規定》,提供者還應對生成的圖片、視頻等內容進行標識。

(三)尊重知識產權、商業道德,不得利用算法、數據、平臺等優勢實施不公平競爭。

這個自動論文評審系統效果究竟如何呢?機器之心嘗試上傳了該研究所用的示例論文《Attention Is All You Need》。

本周二,美國政府也開始研究是否需要監管ChatGPT。據《華爾街日報》報道,美國商務部就相關的問責措施正式公開征求意見,包括具有潛在風險的新型人工智能模型在發布前是否應該進行核準認證程序。

基于此,中倫律師事務所合伙人馬遠超認為,這次頒發征求意見稿不算是“突發性”事件,并且,這份《意見稿》可視作《互聯網信息服務深度合成管理規定》的升級版。有些內容是對深度合成規定的延續、細化,有的內容則是首次提出,例如第四條、第七條、第十七條。

第三條 國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先采用安全可信的軟件、工具、計算和數據資源。

第四條提到的涉及政治、涉黃涉暴等敏感內容,一直都是互聯網內容風控審核的重點。特別強調的是,AI生成內容還應當真實準確,防止生成虛假信息和帶有歧視性的內容。

第四條(二)在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,采取措施防止出現種族、民族、信仰、國別、地域、性別、年齡、職業等歧視

第四條(四)利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息。

這是全球范圍內針對ChatGPT的第一道政府禁令。此后德國、加拿大、法國等國家也開始考慮效仿意大利,加強對Al數據安全的監管。

第四條(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產權。禁止非法獲取、披露、利用個人信息和隱私、商業秘密。

第十一條 提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。法律法規另有規定的,從其規定。

例如對獨創性相對較低的作品,增加了純屬巧合、生成相似作品的概率,這會對一方權利人維權帶來難度。對訓練時使用第三方作品是否構成合理使用,也有爭議。但某些場景比較容易維權,例如未經許可輸入他人的注冊商標進行訓練,導致輸出相似的成果。

第十條 提供者應當明確并公開其服務的適用人群、場合、用途,采取適當措施防范用戶過分依賴或沉迷生成內容。

《意見稿》對AI模型提供者,以及調用接口進行二次開發的服務商都提出了一系列要求,比如第六條要求提供服務前向國家網信部門申報安全評估,做好備案;第十四條要求提供安全、穩定的服務;第十七條要求披露模型描述等必要信息等等。

第五條 利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。

第十七條 提供者應當根據國家網信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標注規則,人工標注數據的規模和類型,基礎算法和技術體系等

第十五條 對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成。

第十九條 提供者發現用戶利用生成式人工智能產品過程中違反法律法規,違背商業道德、社會公德行為時,包括從事網絡炒作、惡意發帖跟評、制造垃圾郵件、編寫惡意軟件,實施不正當的商業營銷等,應當暫停或者終止服務。

《意見稿》只是第一步,部分規定還比較籠統,但在國內AIGC發展初期就跟進革新,長遠來看,可以為整個產業的穩健發展保駕護航。