1. 進(jìn)入抖音APP并打開“我的”頁面
首先,打開抖音APP,并點擊底部導(dǎo)航欄的“我的”選項,進(jìn)入“我的”頁面。
注意:確保您已經(jīng)登錄了抖音賬號。
2. 選擇“月付額度”
在“我的”頁面中,您會看到一個錢包的圖標(biāo),點擊進(jìn)入錢包頁面。
注意:如果您在“我的”頁面沒有找到錢包圖標(biāo),可能是因為您的賬號沒有開通錢包功能。您可以嘗試升級到最新版本的抖音APP,或者聯(lián)系客服進(jìn)行咨詢。
3. 進(jìn)行取現(xiàn)操作
在錢包頁面中,您可以找到一個選項叫做“月付額度”,點擊進(jìn)入。
根據(jù)提示,完成取現(xiàn)操作即可。
以上就是小編分享的一些方法。需要注意的是抖音月付是正規(guī)靠譜的口子,發(fā)生逾期的情況將會影響我們的征信報告,所以大家使用完成后一定要及時的還款,不要發(fā)生逾期的情況,不然頭條的借款以及抖音借款下次就無法使用了,所以抖音月付用了要記得準(zhǔn)時還款哦。
----專業(yè)商家提現(xiàn)專號【客服v信1312339978電15873152131】提現(xiàn)秒到賬-----
字節(jié)跳動科學(xué)家組團(tuán)演講,揭秘AI視頻生成大招!
www.163.com 2024-07-19 23:52
智東西
作者 程茜
編輯 心緣
智東西7月19日報道,今日下午,在字節(jié)跳動AI技術(shù)菁英論壇上,字節(jié)跳動豆包大模型視覺基礎(chǔ)研究團(tuán)隊負(fù)責(zé)人馮佳時主持,多位視覺大模型研究的關(guān)鍵人物集中演講,詳細(xì)解讀字節(jié)跳動在視頻生成和3D圖像生成模型的一系列創(chuàng)新技術(shù)。
作為國內(nèi)短視頻王者,字節(jié)跳動是國內(nèi)最受關(guān)注的AI視頻生成玩家之一,從去年11月發(fā)布高動態(tài)視頻生成研究成果PixelDance、今年發(fā)布AI視頻生成模型MagicVideo-V2和開啟AI創(chuàng)作工具即夢Dreamina視頻生成功能的測試,每次進(jìn)展都吸引了大量開發(fā)者關(guān)注。
今天,字節(jié)跳動研究科學(xué)家周大權(quán)回顧了字節(jié)跳動過視頻生成模型的三年發(fā)展歷程,以及字節(jié)在連續(xù)高動態(tài)長視頻生成技術(shù)上的探索。
此外,字節(jié)研究科學(xué)家Bingyi Kang、張健鋒、廖俊豪分別分享了單目深度估計基礎(chǔ)模型Depth Aything、多視角條件擴散模型Magic-Boost、拖拽式圖像編輯工具InstaDrag的最新成果。
一、視頻生成一分為二,先文生圖、再圖生視頻
字節(jié)跳動研究科學(xué)家周大權(quán)的演講主題是《連續(xù)高動態(tài)的長視頻生成方案探索》,為了讓生成視頻中主要角色的運動范圍擴大,字節(jié)跳動將這一過程分為文生圖、圖生視頻兩步,使得模型生成所需的GPU資源和訓(xùn)練數(shù)據(jù)減少。
2022年,字節(jié)跳動發(fā)布了視頻生成模型的第一個版本,在這之后,研究人員開始在移動算法、硬件效率等維度進(jìn)行模型優(yōu)化。在運動算法優(yōu)化方面,研究人員需要創(chuàng)建長視頻數(shù)據(jù)集。
目前,視頻生成效果中運動范圍都較小,如下圖中人物的運動軌跡實際上在整個畫面中只占很小的位置。
想實現(xiàn)更加動態(tài)的視頻效果,需要繁重的GPU資源以及大量訓(xùn)練數(shù)據(jù)。
研究人員通過保持給定Token一致性,就可以確保生成不同時刻的剪輯是相同Token。
通用視頻生成模型的最終目標(biāo)是希望不投入太多GPU資源以及大量數(shù)據(jù),同時生成過程可控。把這些結(jié)合起來就是字節(jié)跳動研究人員的最終解決方案。
他們將文生視頻分為兩個過程,從文本到圖像的處理過程只需要文本和圖像數(shù)據(jù),第二步是圖像到視頻。在文生圖的過程中讓不同圖像持有相同ID,就可以降低訓(xùn)練難度。
周大權(quán)稱,有時用戶只需要輸入一句話就可以獨立生成六個不同圖像,將這些圖像組合起來成為一段視頻就可以降低學(xué)習(xí)的復(fù)雜性以及模型實現(xiàn)的難度。
在這之中,研究人員修改了圖像相似度計算過程中的注意力,它們只需要計算單個圖像內(nèi)的相似度。研究人員現(xiàn)在只將上下文擴展到相鄰圖像中,利用這種新的自注意力機制,就可以進(jìn)行文生圖像以及圖像到視頻的組合。
同時,在基于獨立文本生成圖像時,其還可以保留細(xì)節(jié)。圖像轉(zhuǎn)換為視頻時,該模型可以預(yù)測這兩個圖像之間的中間幀,然后生成中間視頻,從而生成擁有無限鏡頭的視頻。
二、DepthAything,成高質(zhì)量2D轉(zhuǎn)3D圖像新思路
字節(jié)跳動研究科學(xué)家Bingyi Kang的演講主題是《DepthAnything:單目深度估計的基礎(chǔ)模型》,該模型可以更有效地從2D圖像中識別出深度信息圖,讓普通手機拍攝的2D影像也能快速轉(zhuǎn)3D。
基于語言和視覺的基礎(chǔ)模型可以提供很強的現(xiàn)實泛化能力,其背后的難題就是數(shù)據(jù)方案和模型方案。DepthAything提出了一種單目深度估計技術(shù),能更有效地從2D圖像中識別出深度信息圖。
基于此,字節(jié)跳動的研究人員進(jìn)行了數(shù)據(jù)縮放,Bingyi Kang談道,首先是匯總所有的數(shù)據(jù),研究人員集成了6個公共數(shù)據(jù)集和大約1500萬張圖片。隨后基于這些數(shù)據(jù)訓(xùn)練模型。研究人員在標(biāo)記圖像上單獨訓(xùn)練教師模型,并通過這個教師網(wǎng)絡(luò)對所有圖像進(jìn)行適當(dāng)處理。
為了讓數(shù)據(jù)標(biāo)記更有效,研究人員采取了兩種措施,第一種是將數(shù)據(jù)增強添加到未標(biāo)記的圖像中,第二種是使用非知識論文損失函數(shù)。
此外,真實數(shù)據(jù)有一定噪聲,會出現(xiàn)錯誤匹配的情況且成本很高。因此,他們首先在純合成圖像上訓(xùn)練一個教師模型,然后使用這個教師模型對所有未標(biāo)記的圖像進(jìn)行工作室標(biāo)記,然后只使用真實圖像的學(xué)生標(biāo)簽來改變學(xué)生模型。
DepthAnything技術(shù)的應(yīng)用有望使得短視頻平臺上的2D影像轉(zhuǎn)化為3D影像,或?qū)?yīng)用于XR產(chǎn)業(yè)。
三、Magc-Boost:15分鐘優(yōu)化三維圖像生成,復(fù)雜紋理、幾何結(jié)構(gòu)都能重現(xiàn)
字節(jié)跳動研究科學(xué)家張健鋒的演講主題是《Magic-Boost:通過多視圖條件擴散提升3D生成》,可以在15分鐘內(nèi)優(yōu)化生成結(jié)果,從而保留復(fù)雜的紋理或者幾何結(jié)構(gòu)。
三維技術(shù)在電影視覺特效、AR等場景中擁有廣泛應(yīng)用,人們可以自定義自己的角色、視覺效果,城市生成技術(shù)可以應(yīng)用于城市規(guī)劃、工業(yè)設(shè)計等。目前,研究人員多利用二維擴散模型生成多視角圖像,然后再將這些圖像轉(zhuǎn)化為精準(zhǔn)3D模型。
張健鋒談道,首先可以給定文本或圖像的輸入內(nèi)容,通過多個不同模型生成,然后使用快速重建模型從多個圖像中重建相應(yīng)的城市對象。這一過程通??梢栽?0秒內(nèi)完成。
但這一生成的圖像與原始輸入之間仍會存在明顯的性能差距,字節(jié)跳動的研究人員提出了多視角條件擴散模型Magc-Boost,可以利用多個圖像來優(yōu)化成本生成結(jié)果,這一優(yōu)化時間大約為15分鐘,其目的在于讓圖像中能盡可能多包含對象的細(xì)節(jié)信息。
在與其他結(jié)果進(jìn)行比較中,Magc-Boost可以實現(xiàn)快速精化,并保留過程中的內(nèi)容特性,并能在短時間內(nèi)快速改進(jìn)細(xì)節(jié)。
四、InstaDrag:拖拽一下,1秒搞定照片編輯
字節(jié)跳動研究科學(xué)家廖俊豪的演講主題是《InstaDrag:從視頻數(shù)據(jù)中學(xué)習(xí)快且精準(zhǔn)的拖拽式編輯》,InstaDrag可以使得用戶進(jìn)行圖像編輯時速度最快提升百倍,在大約1秒內(nèi)完成高質(zhì)量拖拽式編輯圖像,還能保留無需編輯區(qū)域的特征。
目前,一些圖像編輯工具中,用戶精確控制將其移動到特定位置等基礎(chǔ)功能還無法實現(xiàn)。廖俊豪稱,因此,一個快速高效的基于拖拽的圖像編輯方案十分必要。
在圖像編輯工具中,字節(jié)跳動的四個目標(biāo)就是快、未編輯區(qū)域不會產(chǎn)生變化、外觀不變、 將圖片信息移動到目標(biāo)位置。
相比于此前的方式,InstaDrag的圖片編輯可以實現(xiàn)10-100倍的速度提升,同時編輯更準(zhǔn)確。同時,自然視頻中會包含大量的運動線索,這些視頻數(shù)據(jù)就可以形成配對監(jiān)督來訓(xùn)練模型。
為了保證未編輯區(qū)域不發(fā)生變化,研究人員提供了一個遮罩,可以確保遮罩外的每個像素保持不變只拖動遮罩內(nèi)區(qū)域。
在Demo演示中,用戶選擇遮罩區(qū)域并進(jìn)行相應(yīng)拖動后,會出現(xiàn)4個結(jié)果以便從中選擇。
結(jié)語:視頻、3D生成模型爆發(fā)機遇已來
世界模型,被認(rèn)為是通往AGI的關(guān)鍵路徑之一。想要真正理解物理世界,也就意味著需要更多視覺信號,如二維、三維圖像、視頻等。
近一年來,AI視頻、3D生成領(lǐng)域的熱度持續(xù)攀升,多家AI公司推出了新的視頻生成模型,引發(fā)了行業(yè)內(nèi)的激烈競爭,從圖像生成、圖像編輯到更為復(fù)雜的長視頻、三維信息生成等模型問世,徹底引爆了這條賽道。
在短視頻、AI領(lǐng)域等積累頗深的字節(jié)跳動,或許會在這條路上帶來更多的驚喜。