Kimi多模態圖片理解模型API發佈
1月15日,月之暗面旗下Kimi開放平臺發佈全新多模態圖片理解模型moonshot-v1-vision-preview正式發佈,該模型完善了moonshot-v1模型系列的多模態能力,具備圖像識別、文字識別和理解能力。Vision模型實行按量計費方式,單張圖片按1024tokens合併計算在Input請求的tokens用量中,根據模型不同,每1M tokens價格爲12至60元人民幣。
相關資訊
- ▣ AI早知道|Kimi 發佈 k1 視覺思考模型;騰訊發佈多模態大模型POINTS 1.5
- ▣ Meta發佈多模態LLAMA 3.2人工智能模型,能夠同時理解圖像和文本
- ▣ OpenAI內容審覈API引入多模態審覈模型
- ▣ 全球首個多模態地理科學大模型發佈
- ▣ 多模態視頻理解模型新標杆!微軟黃學東團隊發佈 i-Code
- ▣ 蘋果多模態模型大升級!文本密集、多圖理解,全能小鋼炮
- ▣ 無問芯穹發佈首個端側全模態理解開源模型
- ▣ 支付寶發佈多模態醫療大模型
- 智源發佈原生多模態世界模型Emu3
- ▣ 中國發布全球首個多模態地理科學大模型“坤元”
- ▣ OpenAI發佈文生圖模型:ChatGPT即將融入,文字生成圖片模型。
- 智源發佈原生多模態世界模型Emu3,無需擴散模型
- ▣ “雲知聲”正式發佈山海多模態大模型
- ▣ 通用文檔理解新SOTA,多模態大模型TextMonkey來了
- ▣ 豆包視覺理解模型發佈
- ▣ AI早知道|全球首個多模態配樂大模型;智譜正式發佈深度推理模型
- ▣ OpenAI發佈新模型o1,更像理科生,不會多模態但推理能力超強
- ▣ 阿里雲通義千問發佈業界首個開源多模態推理模型
- ▣ 首個“月球科學多模態專業大模型”發佈
- ▣ 阿里國際發佈最新開源多模態模型Ovis
- ▣ Meta Platforms發佈了多模態LLAMA 3.2人工智能模型
- ▣ AI早知道|智源發佈多模態模型Emu3;阿里巴巴達摩院開源文檔處理模型
- ▣ 比擴散模型快50倍!OpenAI發佈多模態模型實時生成進展
- ▣ 九章雲極申請多模態大模型圖像處理專利,提高機器學習模型處理圖像的效率
- 月之暗面:Kimi發佈視覺思考模型k1,多項理科測試行業領先
- ▣ Kimi發佈視覺思考模型k1,“數理化”成績領先OpenAI o1
- ▣ Kimi 發佈視覺思考模型 k1,理科測試表現超OpenAI o1
- ▣ 智源發佈原生多模態世界模型Emu3,實現圖像、文本、視頻大一統
- ▣ 韓國Kakao宣佈開發多模態大語言模型“蜜蜂”