1、快速自套方法:開通閃付的方法,在白條頁面我們找到閃付開通的頁面,點擊進去進行申請,部分優(yōu)質(zhì)用戶會有白條閃付的使用權(quán)限,開通后會得到一個卡號和密碼等等資料,然后大家將閃付綁定我們的手機pay支付,這樣就可以通過支持閃付的pos機就可以套出來,非常方便,當(dāng)然手機pay還可以在電商平臺使用,比如叫外賣的時候選擇pay支付就可以將白條刷出來了,這個方法僅限開通成功閃付的用戶,而且每月限額,一般在3000以內(nèi)。
2、自套技術(shù)
手機話費,在京東充值話費是支持白條支付的,但是限額500-1000,可以通過身邊人充值話費進行提現(xiàn),你幫他充值,然后叫他給你就可以,這個方法更加簡單。
3、自己套出來白條實物貨到的方式
在京東購買一些電子產(chǎn)品,然后掛到閑魚進行出售得到變現(xiàn),這個方式缺點比較明顯,首先費用相對會高一些,比方我們買了物品在賣出去,雖然是全新的,但是別人不可能給我們原價,不然就沒必要給你買了,其次時間不確定,不能馬上找到合適的買家;當(dāng)然優(yōu)點也是比較明顯的,首先不會被限額。
4、京東商城套白條
京東商城因為在平臺上的白條店鋪基本上都支持打白條,所以我們選擇一家這樣的店鋪,然后和商家協(xié)商,你用白條購買一件他店鋪里的東西,讓后將地址填寫成商家的地址,這樣最后商品會直接再發(fā)給商家,然后讓商家將費用轉(zhuǎn)到你的微信綁定的銀行卡中,通過微信綁定的銀行卡。成功提現(xiàn)到微信。
5、朋友代付套出來
京東白條在這一平臺上支付時有一朋友代付選項,如果你正好有一朋友需要買東西,這時候你讓他在付款的時候選擇讓你幫他付,你通過白條幫他付款之后,再讓他將錢轉(zhuǎn)到你的銀行賬戶中,實現(xiàn)套現(xiàn)。這是目前最安全也是能夠最快拿到錢的一種方式。
6、找提現(xiàn)公司套白條
由于人們有這方面的需求,所以也存在這方面的公司,所以如果你有這方面的需求,就可以找這些機構(gòu)幫你實現(xiàn),他們的方法和上面的方式類似,不過需要收取你一定的費用。這種方式在速度上也很快,不過也存在著許多的風(fēng)險,在辦理時需要小心。
以上就是為大家介紹的5種實用的京東白條提現(xiàn)方法。在選擇適合自己的提現(xiàn)方法時,請務(wù)必注意保護個人隱私和信息安全以及遵守相關(guān)法律法規(guī)的規(guī)定。同時也要注意及時還款以免影響個人信用記錄。希望本文能對大家有所幫助!
----專業(yè)商家提現(xiàn)專號【客服v信1312339978電15873152131】提現(xiàn)秒到賬-----
長上下文能力只是吹牛?最強GPT-4o正確率僅55.8%,開源模型不如瞎蒙
www.163.com 2024-07-23 11:36
新智元報道
編輯:alan
【新智元導(dǎo)讀】當(dāng)今的LLM已經(jīng)號稱能夠支持百萬級別的上下文長度,這對于模型的能力來說,意義重大。但近日的兩項獨立研究表明,它們可能只是在吹牛,LLM實際上并不能理解這么長的內(nèi)容。
大數(shù)字一向吸引眼球。
千億參數(shù)、萬卡集群,——還有各大廠商一直在卷的超長上下文。
從一開始的幾K幾十K,發(fā)展到了如今的百萬token級別。
Gemini的最新版本可以接收200萬個token作為上下文。
這大概相當(dāng)于140萬個單詞、2小時視頻或者22小時的音頻。
但不知諸位平時用得著這么長的上下文嗎?畢竟100K已經(jīng)相當(dāng)于一部比較長的小說了。
更重要的是,LLM真的能在這個長度上進行推理嗎?
近日,有兩篇獨立研究分別表明:長上下文水分很大!LLM實際上并不能「理解」內(nèi)容。
讀小說挑戰(zhàn)
首先是來自UMass、AI2和普林斯頓的研究人員,推出了一項針對性的測試。
論文地址:https://arxiv.org/pdf/2406.16264
代碼和示例數(shù)據(jù):https://github.com/marzenakrp/nocha
當(dāng)前傳統(tǒng)的長上下文測試手段一般被稱為「大海撈針」(needle-in-a-haystack):
將一個事實(針)嵌入到大量的上下文信息(干草堆)中,然后測試模型能否找到這根「針」,并回答與之相關(guān)的問題。
這種方式基本上衡量的是LLM的檢索能力,有些流于表面。
于是研究人員構(gòu)建了NoCha(小說挑戰(zhàn))數(shù)據(jù)集,讓模型根據(jù)所提供的上下文(書籍)驗證聲明的真假。
如下圖所示,由小說的粉絲根據(jù)書籍內(nèi)容,提出關(guān)于同一事件或角色敘述的一對相反的聲明。
LLM看完小說后需要分別判斷兩個問題的真假(確保是根據(jù)理解做題,打擊在考場上瞎蒙的)。
對于一對問題的回答有四種情況,只有兩個問題全對時才能得一分。
研究人員測試了目前最強的一些長上下文模型(包括閉源和開源),并將成績單貼在墻上,公開處刑:
首當(dāng)其沖的是GPT-4o,雖然全班第一,但是55.75分。
而開源陣營的成績直接慘不忍睹,表現(xiàn)最好的Command R(simple)只有22.47%的準(zhǔn)確率。
——要知道,這考試瞎蒙也能得25分(四選一)。
當(dāng)然,這也說明人家不是瞎蒙的,確實動腦子了。
視覺上的長上下文
另一篇研究來自UCSB,考察的是視覺大模型(VLM)的長上下文能力。
論文地址:https://arxiv.org/pdf/2406.16851
主要的實驗思路如下圖所示,研究人員通過不斷增加上下文長度(干擾圖片的數(shù)量),將現(xiàn)有的VQA基準(zhǔn)和簡單圖像識別集 (MNIST) 擴展為測試長上下文「提取推理」的示例。
結(jié)果在簡單VQA任務(wù)上,VLM的性能呈現(xiàn)出驚人的指數(shù)衰減。
——LLM:原形畢露了家人們。
而與實際研究相對的,在今年早些時候,谷歌展示了幾個預(yù)先錄制的演示。
讓Gemini 1.5 Pro搜索阿波羅11號登月的電視直播記錄(約402頁),查找包含笑話的引語,以及在電視直播中找到與鉛筆素描相似的場景。
主持這次簡報會的谷歌DeepMind研究副總裁Oriol Vinyals表示,「Gemini 1.5 Pro可以在每一頁、每一個單詞上執(zhí)行此類推理任務(wù)?!?span style="display:none">qVA即熱新聞——關(guān)注每天科技社會生活新變化gihot.com
一千零一夜
第一篇工作被作者命名為「One Thousand and One Pairs」(下面這盞燈應(yīng)該也是這么來的)。
一千零一在這里有兩個含義,首先用于測試的材料基本都是小說,對于大模型來說,算是故事會了;
其次,作者真的花錢請人注釋了剛剛好1001個問題對。
為了保證模型無法依靠自己的知識來作弊,這1001個問題大部分來自于最近出版的虛構(gòu)敘事類讀物。
數(shù)據(jù)收集
NoCha數(shù)據(jù)集包括63本新書(33本于2023年出版,30本于2024年出版)和四本經(jīng)典小說,書籍的平均長度為127k個token(約98.5k個單詞)。
注釋者首先寫出關(guān)于書中事件或人物的真實陳述,然后針對同一對象創(chuàng)建相應(yīng)的虛假陳述,同時還需要給出一個簡短的解釋,說明為什么這些說法是正確或錯誤的。
為了確保聲明的質(zhì)量,作者聘請了讀過相同書籍的注釋者,來驗證五本書中的128個聲明,并最終對其中的124個達成了一致。
下面給出參加本次考試的考生信息(開源和閉源兩大陣營):
以及考試成績:
結(jié)果分析
如果按照小說類型劃分,所有六個閉源模型在歷史小說上的準(zhǔn)確率為56.4%,當(dāng)代小說為46.8%,推理小說為38.8%。
對于每個模型來說,都是歷史小說的準(zhǔn)確度最高,當(dāng)代小說次之,推理小說的準(zhǔn)確度最低。
從這個結(jié)果來看,貌似LLM的推理更多依賴于自身參數(shù)中的知識。
接下來做個對比實驗:如果某個主張可以通過書中的一小部分內(nèi)容來單獨驗證,那么提供本書的其余部分是否會影響其準(zhǔn)確性?
上圖顯示了在四個短篇故事集上的模型性能,每兩行為一組,上面一行表示給出整本書(約129k token)時的準(zhǔn)確率,下面表示只給出與聲明相關(guān)的部分(約21k token)。
Gemini對于添加上下文的表現(xiàn)相對穩(wěn)健,而Claude-3-Opus的準(zhǔn)確度直接下降了44.5%,Claude-3.5-Sonnet、GPT-4-Turbo和GPT-4o的表現(xiàn)也大幅下降。
作者表示,與句子層面的檢索任務(wù)相比,模型在驗證需要考慮整本書(或大部分)內(nèi)容的問題時,顯得力不從心。
另外,書中的一些隱含信息對于人類讀者來說是明確的,但LLM卻無法理解。
大海撈針
另一項研究來自加州大學(xué)圣巴巴拉分校(UCSB),作者引入了 LoCoVQA,一種帶有干擾項的長上下文視覺問答 (VQA) 基準(zhǔn)生成器。
LoCoVQA可以提供與問題相關(guān)的圖像序列,以及一組可配置的視覺干擾項,從而準(zhǔn)確評估VLM如何在雜亂的上下文中僅提取與查詢相關(guān)的信息。
從原理上講,這也是一項「大海撈針」的任務(wù)。
另外,LoCoVQA的方法能夠以任意圖像理解數(shù)據(jù)集為基礎(chǔ),創(chuàng)建長上下文圖像理解測試。
生成方法
通過LoCoVQA合成的樣本包含一個或多個與問答對(、)相對應(yīng)的內(nèi)容圖像。
內(nèi)容圖像可以從各種圖像理解基準(zhǔn)中采樣,例如OK-VQA、MMStar 、MNIST等。
除了內(nèi)容圖像之外,每個樣本還包括最多35個干擾圖像(來自相同或者不同的數(shù)據(jù)集)。
VLM的輸入樣本可以是多個交錯的圖像,也可以是上面這種排列為網(wǎng)格的合成圖像。
單圖像推理任務(wù)
OK-VQA(Outside Knowledge Visual Question Answering)是一個單圖像視覺問答數(shù)據(jù)集,包含5072個問題-答案-圖像三元組。它需要外部知識來超越圖像進行推理。
LoCoVQA生成分布內(nèi)的長上下文OK-VQA樣本,確保內(nèi)容圖像不會出現(xiàn)可能使評估復(fù)雜化的概念沖突。
實驗使用三個指標(biāo)對樣本進行評分:精確匹配(如果模型的響應(yīng)包含任何真實答案作為子字符串,則為滿分)、連續(xù)文本生成、和 ROUGE(候選人和推薦人之間)。
為了解決內(nèi)容干擾沖突問題(視覺上下文中多個相似分布的圖像使QA對模糊),作者實現(xiàn)了一種基于LM的魯棒過濾方法。
對于每個視覺上下文圖像,提示GPT-4列出前五個實體,如果存在重疊,則認為該問題可能含糊不清。
多圖像推理任務(wù)
這里使用合成任務(wù)構(gòu)建「序列VQA」數(shù)據(jù)集,將多個OCR示例作為交錯圖像輸入,要求VLM列出所有文本(OCR規(guī)范數(shù)據(jù)集采用MNIST)。
為了獲得所需的視覺上下文長度,研究人員從大約60K圖像的MNIST訓(xùn)練集中采樣1到8個隨機顏色的數(shù)字,將它們的大小調(diào)整到其他上下文圖像最大高度的1/6到1/2之間。
剩余的干擾圖像是從5K個MS COCO的子集中隨機采樣的。VLM的任務(wù)是列出序列中存在的所有手寫數(shù)字。
通過改變序列中的位數(shù),可以動態(tài)調(diào)整多圖像干擾OCR任務(wù)的難度級別。
上圖展示了9個圖像上下文中包含1、4 和8個數(shù)字的示例。僅當(dāng)存儲的生成數(shù)字字符串與基本事實完全匹配時,輸出才被認為是正確的。
實驗
參賽的VLM如下圖所示:
研究人員在LoCoVQA生成的基準(zhǔn)上,評估了以上九種視覺語言模型的性能。