(資料圖片)
時(shí)下火熱的ChatGPT迎來大升級(jí),OpenAPI推出了GPT-4模型,該模型除了閱讀文字外,還具備圖像識(shí)別能力,這使得ChatGPT的能力得到了大幅提升。
消息稱,GPT-4模型的參數(shù)量高達(dá)100萬億,比現(xiàn)有的ChatGPT模型強(qiáng)大500多倍。然而,OpenAPI并未證實(shí)這一指標(biāo)。GPT-4主要的升級(jí)是在多模態(tài)能力方面,而非參數(shù)量方面。它原本只支持文本,但現(xiàn)在已經(jīng)能夠識(shí)別和理解圖像。舉例來說,用戶可以發(fā)送圖片給ChatGPT,讓ChatGPT識(shí)別圖片中的顏色、描述圖片內(nèi)容、閱讀地圖,并提出建議。
此外,GPT-4還支持更長(zhǎng)的Token序列,之前的版本限制為4096個(gè)Token,大約只有8000個(gè)單詞,但現(xiàn)在它支持32768個(gè)Token,相當(dāng)于6.4萬個(gè)單詞或50頁文本,一次對(duì)話足以完成一部劇本或者短篇小說。此外,GPT-4還支持更多的語言,擴(kuò)展到了26種,回答也更加個(gè)性化。