
據(jù) Cointelegraph 報(bào)道,OpenAI 在 10 月對(duì)其模型進(jìn)行了四項(xiàng)更新,幫助其 AI 模型更好地進(jìn)行對(duì)話(huà)并提高圖像識(shí)別能力。第一項(xiàng)重大更新是實(shí)時(shí) API,它允許開(kāi)發(fā)人員使用單個(gè)提示創(chuàng)建人工智能生成的語(yǔ)音應(yīng)用程序,實(shí)現(xiàn)類(lèi)似于 ChatGPT 高級(jí)語(yǔ)音模式的自然對(duì)話(huà)。以前開(kāi)發(fā)人員必須將多個(gè)模型“拼接在一起”才能創(chuàng)建這些體驗(yàn)。音頻輸入通常需要在接收響應(yīng)之前完全上傳和處理,這意味著語(yǔ)音相互對(duì)話(huà)等實(shí)時(shí)應(yīng)用程序的延遲較高。借助 Realtime API 的流媒體功能,開(kāi)發(fā)人員現(xiàn)在可以實(shí)現(xiàn)即時(shí)、自然的交互,就像語(yǔ)音助手一樣。該 API 運(yùn)行在 2024 年 5 月發(fā)布的 GPT-4 上,可以實(shí)時(shí)跨音頻、視覺(jué)和文本進(jìn)行推理。 另一項(xiàng)更新包括為開(kāi)發(fā)人員提供的微調(diào)工具,使他們能夠改進(jìn)從圖像和文本輸入生成的人工智能響應(yīng)。基于圖像的微調(diào)器使人工智能能夠更好地理解圖像,從而增強(qiáng)視覺(jué)搜索和物體檢測(cè)能力。該過(guò)程包括來(lái)自人類(lèi)的反饋,他們提供了好的和壞的反應(yīng)例子進(jìn)行訓(xùn)練。 除了語(yǔ)音和視覺(jué)更新之外,OpenAI 還推出了“模型蒸餾”和“提示緩存”,允許較小的模型向較大的模型學(xué)習(xí),并通過(guò)重用已處理的文本來(lái)減少開(kāi)發(fā)成本和時(shí)間。據(jù)路透社報(bào)道,OpenAI 預(yù)計(jì)明年收入將增至 116 億美元,高于 2024 年預(yù)計(jì)的 37 億美元。
鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請(qǐng)第一時(shí)間聯(lián)系我們修改或刪除,多謝。