環(huán)信AI公開課:OpenAI通用語言模型GPT-2論文解析
來源: 編輯:vbeiyou 時(shí)間:2019-03-13 07:05人閱讀
OpenAI最近似乎搞了個(gè)大新聞,隨手一搜,”最大模型”、”15億參數(shù)”、”無需領(lǐng)域數(shù)據(jù)”等等躍然在目。當(dāng)然現(xiàn)在是標(biāo)題黨的年代,為了吸引眼球,外行媒體的夸張手法也能理解。當(dāng)然最大的爭(zhēng)議還是他們?cè)诠倬W(wǎng)上解釋為什么只提供小模型的理由:為了防止大模型用于生成欺詐和有歧視性的文章,我們只發(fā)布小規(guī)模的模型(Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale, we are only releasing a much smaller version of GPT-2 along with sampling code)。這個(gè)當(dāng)然引起了軒然大波,使得很多人在Reddit上吐槽。聽這語氣,人工智能已經(jīng)實(shí)現(xiàn)了,為了保護(hù)人類,他們不能把這個(gè)惡魔放出來。實(shí)際情況怎么樣呢?別聽專家的,最好還是我們自己讀讀論文跑跑代碼吧。




分享到:
本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。
如果侵犯了你的權(quán)益請(qǐng)來信告知我們刪除。郵箱:business@qudong.com

