Slide
Slide
Slide
Hitachi_AI_HCI
Hitachi_HCI
HCI
previous arrow
next arrow

中國開源視覺運算平台 促進人工智能生態構建

書生
「書生」能較為準確地識別各類圖片內容,寓意系統擁有如書生般的特質,通過持續學習,舉一反三,以補充目前的AI模型只擅長處理一項任務的缺點。

新科技速遞

商湯科技在全球視覺運算研究最尖端的人工智能(AI)初創,2018年香港中文大學-商湯科技聯合實驗室(MMLab)推出了開源計畫OpenMMLab,而2020年商湯再宣佈OpenMMLab升級

開源有助創新,中國成立上海人工智能實驗室並由商湯創辦人湯曉鷗擔任主任推動上海的AI產業

最近上海人工智能實驗室與商湯科技、中文大學、上海交通大學再共同發佈通用的視覺開源平台OpenGVLab,向學術界和產業界開放超高效預訓練模型,以及千萬級精標注、十萬級標籤量的公開數據集,有助開發人員改善各類下游視覺運算模型的訓練。

OpenGVLab開放業內首個針對通用視覺模型評測基準,以便開發人員對不同通用視覺模型的性能,進行橫向評估和優化。

OpenGVLab開源平台(https://opengvlab.shlab.org.cn)已在網上公開,供研究人員使用,以後將開放網上推理功能,供感興趣人士體驗。

「開源是一項意義非凡的工作,人工智能發展離不開全球研究人員十餘年來開源共建。」上海人工智能實驗室負責人表示:「希望通過發佈OpenGVLab 開源平台,幫助業界更好地探索和應用通用視覺 AI 技術,促進體系化解決AI發展中數據、泛化、認知和安全等瓶頸。」

上述通用視覺開源平台OpenGVLab 基於通用視覺技術體系「書生」(INTERN)建立,去年 11 月「書生」由上海人工智能實驗室與商湯、中文大學、上海交通大學共同推出,以解決目前大部分的AI模型,只能完成單一任務的難題。

上述技術的論文《INTERN: A New Learning Paradigm Towards General Vision》亦在arXiv平台上發表。

OpenGVLab
通用視覺開源平台OpenGVLab正式公開,代表中國在AI開源生態進發,加速視覺運算創新和普及化應用

OpenGVLab可助開發人員降低通用視覺模型的開發門檻,用更低成本開發用於成百上千種視覺任務、視覺場景的算法模型,並解決長尾需求,推動AI的大規模應用。 

上海人工智能實驗室表示OpenGVLab開源預訓練模型性能極高,覆蓋分類、目標檢測、語義分割、深度估計等四大視覺運算,準確率和數據使用效率有大幅提升。研究人員可降低下游數據的採集成本,以極少的數據量,就可訓練多場景、多任務AI模型。 

OpenGVLab還提供多種不同參數量、不同計算量的預訓練模型,以滿足不同場景的應用 需求。模型庫中列出的多個模型,ImageNet微調結果和推理資源、速度等方面,相比之前的公開模型均有不同程度的性能提升。

去年 7 月,上海人工智能實驗室發佈開源平台體系 OpenXLab,涵蓋新一代 OpenMMLab 和決策AI平台 OpenDILab。

此次與商湯科技及各大學聯合發佈通用視覺開源平台OpenGVLab,為推動通用的視覺運算發展再奠定基礎,完善了OpenXLab開源體系,促進人工智能基礎研究和生態構建。

Leave a Reply

Your email address will not be published. Required fields are marked *