Re: [IWIN] 再說一次,不是 "訂一個能接受的標準"

看板C_Chat作者 (BRead)時間2月前 (2024/02/04 21:16), 2月前編輯推噓3(3028)
留言31則, 9人參與, 2月前最新討論串9/17 (看更多)
沒用吧….. 雖然我不是專業的,但從機器學習基本概念的角度來說,就算是擬真生成的AI兒童瑟圖也 不一定是從真實的兒童瑟圖AI訓練出來的。 因為AI算法有「泛化能力」 什麼叫泛化能力?AI必須在現有資料庫的基礎上去對不在資料庫中的樣本進行「推理」 比方說算法必須在過往的天氣資料推斷出今天的天氣,即使表示今天天氣的數據在資料庫中 找不到完全一樣的 回到你說的 避免被報警說我慫恿他人做這種事,我說個其他方面的,自己推斷一下如何應用到三次元兒 色 我能不能在家庭主婦做菜的照片資料庫,加上狗狗普通的照片資料庫的基礎上 生成出狗在做菜的照片?即便我根本沒有狗在做菜的照片? 大概現在的生成式AI就做得到吧…. 還有一個問題 我明明沒有三次色真實兒色圖片,也沒有加害任何人,甚至是別人使用我的訓練模型生成出 來的,憑什麼說我有罪? 反過來,明明我沒有意圖生成三次元兒色,而機器因為內部不可知的原因,甚至是模型訓練 者真的放入三次元兒色圖片, 但總之最終我莫名其妙生成出符合標準的三次元兒色圖 然後說我有罪? 再說模型訓練過程那麼黑盒,發生什麼事情真的沒人知道,說不定真的只是機器出錯了 然後機器出錯,人類背鍋? 無論對於模型訓練者,還是模型使用者,你的標準都說不通吧…… 個人認為這件事根本沒得談 對於創作的任何方式的限制都注定被挑戰…… ※ 引述 《arrenwu》 之銘言: : 標題:Re: [IWIN] 再說一次,不是 "訂一個能接受的標準" : 時間: Sun Feb 4 20:16:54 2024 : : ※ 引述《wahaha99 (我討厭人類)》之銘言: : : 再次強調, 2次元是訂不出標準的 : : 所以拜託, 不要再發什麼 "訂一個大家都能接受的標準" : 有一個部分也許是我還沒有想得很清楚, : 但我覺得 擬真的生成AI兒童色情圖 多半要先禁止吧? : : 理由就是:這個搞不好有可能就是從三次元兒童照片弄出來的 : 因為生成AI再怎麼生成,這些圖片終究是要有訓練的圖庫來源 : 而擬真的生成圖片其訓練來源相當可能來自真實的照片 : : 我不太清楚真的在做相關AI徒刑訓練的怎麼看, : 但至少我暫時沒想到怎麼去排除這個指控 : : -- -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.96.238.206 (日本) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1707052590.A.E52.html ※ 編輯: hotbread (203.96.238.206 日本), 02/04/2024 21:17:43

02/04 21:18, 2月前 , 1F
所以AI最好別碰 不過我本來就沒打算救AI的擬真蘿
02/04 21:18, 1F

02/04 21:18, 2月前 , 2F
那又不是我們這個圈子的
02/04 21:18, 2F

02/04 21:18, 2月前 , 3F
有疑慮 現今技術無法證明 只好妥協禁掉 沒很難懂吧
02/04 21:18, 3F

02/04 21:19, 2月前 , 4F
+1
02/04 21:19, 4F

02/04 21:19, 2月前 , 5F
狗狗瘋狂做菜
02/04 21:19, 5F

02/04 21:19, 2月前 , 6F
那如果會造成執法被混淆的情況該怎麼辦,以後AI技
02/04 21:19, 6F

02/04 21:19, 2月前 , 7F
術只會更加進步,擬真的跟現實照片一樣該如何分辨
02/04 21:19, 7F

02/04 21:19, 2月前 , 8F
是否有受害者
02/04 21:19, 8F

02/04 21:20, 2月前 , 9F
我的建議是AI擬真蘿都禁掉 有人質疑我 所以我退一步
02/04 21:20, 9F

02/04 21:20, 2月前 , 10F
寫無法證實合法素材的禁掉 但全禁掉我沒差
02/04 21:20, 10F

02/04 21:20, 2月前 , 11F
這本來就不是我們這個圈的 誰想挑戰誰去
02/04 21:20, 11F

02/04 21:21, 2月前 , 12F
類似槍砲彈藥管制?你可能只是想收藏,但不同的人使用方
02/04 21:21, 12F

02/04 21:21, 2月前 , 13F
式也會不同,所以基本上不允許持有或是使用要有執照
02/04 21:21, 13F

02/04 21:26, 2月前 , 14F
你可以選擇刪除…然後重新調整
02/04 21:26, 14F

02/04 21:26, 2月前 , 15F
這部分就算上法院也沒問題的好嗎
02/04 21:26, 15F

02/04 21:26, 2月前 , 16F
但現在問題是當你不打算管制、限制的話就會變成 某
02/04 21:26, 16F

02/04 21:26, 2月前 , 17F
A丟個圖 看起來像三次元擬真 但因為他說這是生成圖
02/04 21:26, 17F

02/04 21:26, 2月前 , 18F
02/04 21:26, 18F

02/04 21:26, 2月前 , 19F
所以就放著不管直到檢警查到有相關真實證據這樣?
02/04 21:26, 19F

02/04 21:26, 2月前 , 20F
這種論述注定被打爆
02/04 21:26, 20F

02/04 21:45, 2月前 , 21F
這篇講的泛化能力是有限度的
02/04 21:45, 21F

02/04 21:46, 2月前 , 22F
例如你不可能只靠訓練真人圖片產出動漫風格的圖片
02/04 21:46, 22F

02/04 21:46, 2月前 , 23F
因為現在深度學習的泛化能力不可能比得上人類
02/04 21:46, 23F

02/04 21:47, 2月前 , 24F
所以產得出真人兒童色情的模型沒有牽涉到兒童色情我其實
02/04 21:47, 24F

02/04 21:47, 2月前 , 25F
不太相信
02/04 21:47, 25F

02/04 22:27, 2月前 , 26F
執法被混淆是怎麼樣的情況?執法單位要在沒有被害人的情況
02/04 22:27, 26F

02/04 22:27, 2月前 , 27F
中,先把擬真AI色圖抓起來這樣?
02/04 22:27, 27F

02/04 23:26, 2月前 , 28F
你資料庫有你沒用(生錯圖不算啊),跟你故意有意識的去
02/04 23:26, 28F

02/04 23:26, 2月前 , 29F
訓練出上千張AI真蘿在電腦天天對ai真人蘿打槍不一樣耶
02/04 23:26, 29F

02/04 23:28, 2月前 , 30F
你要怎麼論述讓人支持電腦有幾T的真蘿色圖,天天對這打
02/04 23:28, 30F

02/04 23:28, 2月前 , 31F
槍的??
02/04 23:28, 31F
文章代碼(AID): #1bluukvI (C_Chat)
討論串 (同標題文章)
完整討論串 (本文為第 9 之 17 篇):
文章代碼(AID): #1bluukvI (C_Chat)