北京時間4月13日,open AI聯(lián)合創(chuàng)始人及首席執(zhí)行官在麻省理工學(xué)院接受了相關(guān)的采訪,他表示Open AI大語言模型并不是所謂的越大越好,同時他認(rèn)為自己的團(tuán)隊正在為了大小而逐漸接近人工智能的極限,目前他們的公司已經(jīng)走到了這個時代的盡頭,將會用其他的方式把這個模型做的更加的好,他也認(rèn)為大小并非是衡量一個模型質(zhì)量好壞的正確方式。
未來的模型參數(shù)應(yīng)該向更小的方向進(jìn)行發(fā)展,或者以多個小模型協(xié)作的方式進(jìn)行工作,也就意味著未來的AI人工智能技術(shù)是應(yīng)該將重點(diǎn)放在提高模型的能力上,而不是取決于模型的大小問題,參數(shù)的數(shù)量應(yīng)該隨著時間的推移而不斷的減少。讓每一個模型都變得更小,才能更好的方便工作,但是也不能夠忽略參數(shù)的數(shù)量。