
根據知名科技媒體MarkTechPost通報,昨日,Google DeepMind團隊正式發布了名為WebLI-100B的千億級資料集。據悉,WebLI-100B資料集包含了驚人的1000億個圖像-文字對,規模遠超過當前主流的資料集。 DeepMind團隊此舉旨在解決當前視覺語言模型在文化多樣性和多語言性方面的限制。
透過這龐大的資料集,AI模型將能夠更好地理解和識別來自不同文化背景和多語言環境下的圖像與文字資訊。
值得一提的是,WebLI-100B資料集在建置過程中,並沒有採用嚴格的過濾方式,而是專注於資料的擴展。這一做法使得資料集能夠保留更多語言和文化元素的廣泛代表性,從而提高了AI模型的包容性。
本內容來自創作者:Google 上傳發布,不代表本網站觀點與立場。转载,请注明出处:https://news.kejixun.com/33166.html
留言列表(1条)
hxPJGMZkTwl