日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 科技  > 知識百科

一文梳理視覺Transformer架構進展:與CNN相比,ViT贏在哪兒?

來源: 責編: 時間:2023-08-07 16:30:05 300觀看
導讀 Transformer 作為一種基于注意力的編碼器 - 解碼器架構,不僅徹底改變了自然語言處理(NLP)領域,還在計算機視覺(CV)領域做出了一些開創性的工作。與卷積神經網絡(CNN)相比,視覺 Transf

Transformer 作為一種基于注意力的編碼器 - 解碼器架構,不僅徹底改變了自然語言處理(NLP)領域,還在計算機視覺(CV)領域做出了一些開創性的工作。與卷積神經網絡(CNN)相比,視覺 Transformer(ViT)依靠出色的建模能力,在 ImageNet、COCO 和 ADE20k 等多個基準上取得了非常優異的性能。nfL28資訊網——每日最新資訊28at.com

近日,一位名為 Nikolas Adaloglou 的博主撰寫了一篇博客長文,綜述了 ViT 領域的進展以及 ViT 與其他學科的交叉應用。nfL28資訊網——每日最新資訊28at.com

 nfL28資訊網——每日最新資訊28at.com

本文作者 Nikolas Adaloglou。nfL28資訊網——每日最新資訊28at.com

Nikolas Adaloglou 是一名機器學習工程師,他對和 AI 相關的 3D 醫學成像、圖像和視頻分析、基于圖的深度學習模型以及生成式深度學習感興趣,致力于借助機器學習推動醫學工程的發展。nfL28資訊網——每日最新資訊28at.com

以下是博客原文:nfL28資訊網——每日最新資訊28at.com

ViT 的靈感來源于自然語言處理中的自注意力機制,其中將詞嵌入替換成了 patch 嵌入。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

以合理的規模訓練 ViT知識蒸餾nfL28資訊網——每日最新資訊28at.com

在 Kaggle 等深度學習競賽中,集成(ensemble)是非常流行的一種方法。集成大體上是指平均多個已訓練模型的輸出以進行預測。這種簡單的方法非常適合提高測試時的性能,然而它在推理過程中會慢 N 倍(其中 N 表示模型數量)。當在嵌入式設備中部署此類神經網絡時,這就成了一個棘手的問題。解決這個問題常用的一種方法是知識蒸餾。nfL28資訊網——每日最新資訊28at.com

在知識蒸餾中,小模型(學生模型)通常是由一個大模型(教師模型)監督,算法的關鍵是如何將教師模型的知識遷移給學生模型。nfL28資訊網——每日最新資訊28at.com

盡管沒有足夠的基礎理論支持,但知識蒸餾已被證明是一種非常有效的技巧。關于為什么集成的輸出分布能提供與集成相當的測試性能,還有待發現。而使用集成的輸出(略有偏差的平滑標簽)相對于真實標簽存在性能增益,這更加神秘。nfL28資訊網——每日最新資訊28at.com

DeiT 模型通過注意力訓練數據高效的圖像 Transformer 和蒸餾,這表明在沒有外部數據的情況下,僅在 ImageNet 上訓練 ViT 是可以的。該研究使用來自 Resnet 的已訓練好的 CNN 模型作為單一教師模型。直觀地講,強大的數據假設(歸納偏置)讓 CNN 比 ViT 更適合做教師網絡。nfL28資訊網——每日最新資訊28at.com

自蒸餾nfL28資訊網——每日最新資訊28at.com

令人驚訝的是,有研究發現類似方法也可以通過對同一架構的單個模型(教師網絡)進行知識蒸餾來實現。這個過程被稱為自蒸餾,來自于 Zhang et al.2019 年的論文《Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation》。自蒸餾就是一種 N=1 的知識蒸餾,自蒸餾(使用具有相同架構的單個訓練模型)也可以提高測試準確率。nfL28資訊網——每日最新資訊28at.com

ViT 的 Hard-label 蒸餾:DeiT 訓練策略nfL28資訊網——每日最新資訊28at.com

在這種方法中,一個額外的可學習全局 token(即蒸餾 token),與 ViT 的 patch 嵌入相連。最關鍵的是,蒸餾 token 來自訓練有素的教師 CNN 主干網絡。通過將 CNN 特征融合到 Transformer 的自注意力層中,研究者們在 Imagenet 的 1M 數據上訓練 DeiT。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

DeiT 模型概覽。nfL28資訊網——每日最新資訊28at.com

DeiT 使用如下損失函數進行訓練:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

其中 CE 是交叉熵損失函數,σ 是 softmax 函數。Z_cls 和 Z_distill 分別是來自類 token 和蒸餾 token 的學生模型的輸出,ytrue 和 yteacher 分別是 ground truth 和教師模型的輸出。nfL28資訊網——每日最新資訊28at.com

這種蒸餾技術使模型用更少的數據獲得超強的數據增強,這可能會導致 ground truth 標簽不精確。在這種情況下,教師網絡似乎會產生更合適的標簽。由此產生的模型系列,即數據高效圖像 Transformer(DeiTs),在準確率 / 步長時間上與 EfficientNet 相當,但在準確率 / 參數效率上仍然落后。nfL28資訊網——每日最新資訊28at.com

除了蒸餾,還有一些研究大量使用圖像增強來彌補缺乏可用的額外數據。此外,DeiT 依賴于隨機深度等數據正則化技術。最終,強大的增強和正則化限制了 ViT 在小數據機制中的過擬合趨勢。nfL28資訊網——每日最新資訊28at.com

Pyramid 視覺 TransformernfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

Pyramid 視覺 Transformer(PVT)的總體架構。nfL28資訊網——每日最新資訊28at.com

為了克服注意力機制的二次復雜度,Pyramid 視覺 Transformer(PVT)采用一種稱為空間減少注意力 (SRA) 的自注意力變體。其特征是鍵和值的空間減少,類似于 NLP 領域的 Linformer 注意力。nfL28資訊網——每日最新資訊28at.com

通過應用 SRA,整個模型的特征空間維度緩慢減少,并通過在所有 transformer block 中應用位置嵌入來增強順序的概念。PVT 已被用作目標檢測和語義分割的主干網絡,以處理高分辨率圖像。nfL28資訊網——每日最新資訊28at.com

后來,該研究團隊推出改進版 PVT-v2,主要改進如下:nfL28資訊網——每日最新資訊28at.com

重疊 patch 嵌入;卷積前饋網絡;線性復雜度自注意力層。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

重疊 patch 是改進 ViT 的一個簡單而通用的想法,尤其是對于密集任務(例如語義分割)。通過利用重疊區域 /patch,PVT-v2 可以獲得圖像表征的更多局部連續性。nfL28資訊網——每日最新資訊28at.com

全連接層(FC)之間的卷積消除了每一層中對固定大小位置編碼的需要。具有零填充(zero padding,p=1)的 3x3 深度卷積 (p=1) 旨在補償模型中位置編碼的移除(它們仍然存在,但只存在于輸入中)。此過程可以更靈活地處理多種圖像分辨率。nfL28資訊網——每日最新資訊28at.com

最后,使用鍵和值池化(p=7),自注意力層就減小到了與 CNN 類似的復雜度。nfL28資訊網——每日最新資訊28at.com

Swin Transformer:使用移位窗口的分層視覺 TransformernfL28資訊網——每日最新資訊28at.com

Swin Transformer 旨在從標準 NLP transformer 中建立局部性的思想,即局部或窗口注意力:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

在 Swin Transformer 中,局部自注意力被用于非重疊窗口。下一層的窗口到窗口通信通過逐步合并窗口來產生分層表征。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

如上圖所示,左側是第一層的常規窗口分區方案,其中在每個窗口內計算自注意力。右側第二層中的窗口分區被移動了 2 個圖像 patch,導致跨越了先前窗口的邊界。nfL28資訊網——每日最新資訊28at.com

局部自注意力隨圖像大小線性縮放 O (M*N) 而不是 O (N^2),在用于序列長度 N 和 M 窗口大小。nfL28資訊網——每日最新資訊28at.com

通過合并添加許多局部層,有一個全局表示。此外,特征圖的空間維度已顯著降低。作者聲稱在 ImageNet-1K 和 ImageNet-21K 上都取得了有希望的結果。nfL28資訊網——每日最新資訊28at.com

視覺 Transformer 的自監督訓練:DINOnfL28資訊網——每日最新資訊28at.com

Facebook AI 的研究提出了一個強大的框架用于訓練大規模視覺數據。提議的自監督系統創建了如此強大的表征,你甚至不需要在上面微調線性層。這是通過在數據集的凍結訓練特征上應用 K - 最近鄰 (NN) 來觀察到的。作者發現,訓練有素的 ViT 可以在沒有標簽的情況下在 ImageNet 上達到 78.3% 的 top-1 準確率。nfL28資訊網——每日最新資訊28at.com

該自監督框架如下圖所示:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

與其他自監督模型相比,他們使用了交叉熵損失,就像在典型的自蒸餾場景中所做的那樣。盡管如此,這里的教師模型是隨機初始化的,其參數是根據學生參數的指數移動平均值更新的。為了讓它 work,研究者將帶溫度參數的 softmax 應用于具有不同溫度的教師和學生模型。具體來說,教師模型得到的溫度參數更小,這意味著更敏銳的預測。最重要的是,他們使用了從 SWAV 中獲得的多重裁剪方法,效果更佳,在這種情況下教師只能看到全局視圖,而學生可以訪問轉換后的輸入圖像的全局和局部視圖。nfL28資訊網——每日最新資訊28at.com

對于 CNN 架構來說,該框架并不像對視覺 Transformer 那樣有益。那又該如何從圖像中提取什么樣的特征?nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

作者將經過訓練的 VIT 的自注意力頭輸出可視化。這些注意力圖說明模型自動學習特定于類的特征,導致無監督的對象分割,例如前景與背景。nfL28資訊網——每日最新資訊28at.com

此屬性也出現在自監督預訓練的卷積神經網絡中,但需要一種特殊的方法來可視化特征。更重要的是,自注意力頭學習補充信息并通過為每個頭部使用不同的顏色來說明。默認情況下,這根本不是通過自注意力獲得的。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

DINO 多注意力頭可視化。nfL28資訊網——每日最新資訊28at.com

Scaling 視覺 TransformernfL28資訊網——每日最新資訊28at.com

深度學習和規模是相關的。事實上,規模是很多 SOTA 實現的關鍵因素。在這項研究中,來自 Google Brain Research 的作者訓練了一個稍微修改過的 ViT 模型,它有 20 億個參數,并在 ImageNet 上達到了 90.45 % 的 top-1 準確率。這種過度參數化的一般化模型在少樣本學習上進行了測試,每類只有 10 個示例情況下。在 ImageNet 上達到了 84.86% 的 top-1 準確率。nfL28資訊網——每日最新資訊28at.com

小樣本學習是指在樣本數量極其有限的情況下對模型進行微調。小樣本學習的目標通過將獲得的預訓練知識稍微適應特定任務來激勵泛化。如果成功地預訓練了大型模型,那么在對下游任務非常有限的理解(僅由幾個示例提供)的情況下表現良好是有意義的。nfL28資訊網——每日最新資訊28at.com

以下是本文的一些核心貢獻和主要結果:nfL28資訊網——每日最新資訊28at.com

模型大小可能會限制表征質量,前提是有足夠的數據來提供它;大型模型受益于額外的監督數據,甚至超過 1B 圖像。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

上圖描繪了從 300M 圖像數據集 (JFT-300M) 切換到 30 億圖像 (JFT-3B) 而不進行任何進一步縮放的效果。中型 (B/32) 和大型 (L/16) 模型都受益于添加數據,大致是一個常數因子。結果是在整個訓練過程中通過小樣本(線性)評估獲得的。nfL28資訊網——每日最新資訊28at.com

大模型的樣本效率更高,以更少的可見圖像達到相同的錯誤率水平。為了節省內存,他們刪除了類 token (cls)。相反,他們評估了全局平均池化和多頭注意力池化,以聚合所有 patch token 的表征。他們對頭部和稱為「主干」的其余層使用了不同的權重衰減。作者在下圖中很好地證明了這一點。框值是小樣本精度,而橫軸和縱軸分別表示主干和頭部的權重衰減。令人驚訝的是,頭部的更強衰減會產生最好的結果。作者推測,頭部的強烈權重衰減會導致表示具有更大的類之間的余量。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

這或許是可以更廣泛地應用于預訓練 ViT 的最有趣的發現。nfL28資訊網——每日最新資訊28at.com

他們在訓練開始時使用了熱身階段,在訓練結束時使用了冷卻階段,其中學習率線性退火為零。此外,他們使用了 Adafactor 優化器,與傳統的 Adam 相比,內存開銷為 50%。nfL28資訊網——每日最新資訊28at.com

在同一個波長,你可以找到另一個大規模的研究:《如何訓練你的 ViT?視覺 Transformer 中的數據、增強和正則化》(How to train your ViT? Data, Augmentation, and Regularization in Vision Transformers)nfL28資訊網——每日最新資訊28at.com

替代自注意力:獨立 token + 通道混合方式nfL28資訊網——每日最新資訊28at.com

眾所周知,自注意力可以作為一種具有快速權重的信息路由機制。到目前為止,有 3 篇論文講述了同樣的故事:用 2 個信息混合層替換自注意力;一種用于混合 token(投影 patch 向量),一種用于混合通道 / 特征信息。nfL28資訊網——每日最新資訊28at.com

MLP-MixernfL28資訊網——每日最新資訊28at.com

MLP-Mixer 包含兩個 MLP 層:第一個獨立應用于圖像 patch(即「混合」每個位置的特征),另一個跨 patch(即「混合」空間信息)。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

MLP-Mixer 架構。nfL28資訊網——每日最新資訊28at.com

XCiT:互協方差圖像 TransformernfL28資訊網——每日最新資訊28at.com

另一個是最近的架構 XCiT,旨在修改 ViT 的核心構建 block:應用于 token 維度的自注意力。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

XCiT 架構。nfL28資訊網——每日最新資訊28at.com

XCA:對于信息混合,作者提出了一種交叉協方差注意力 (XCA) 函數,該函數根據 token 的特征維度而不是根據其本身進行操作。重要的是,此方法僅適用于 queries、keys、values 集的 L2 歸一化。L2 范數用 K 和 Q 字母上方的 hat 表示。乘法的結果在 softmax 之前也歸一化為 [-1,1] 。nfL28資訊網——每日最新資訊28at.com

局部 Patch 交互:為了實現 patch 之間的顯式通信,研究者添加了兩個 depth-wise 3×3 卷積層,中間有批歸一化和 GELU 非線性。Depth-wise 卷積獨立應用于每個通道(這里的 patch)。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

ConvMixer(加鏈接:patch 成為了 ALL You Need?挑戰 ViT、MLP-Mixer 的簡單模型來了)nfL28資訊網——每日最新資訊28at.com

自注意力和 MLP 理論上是更通用的建模機制,因為它們允許更大的感受野和內容感知行為。盡管如此,卷積的歸納偏差在計算機視覺任務中具有不可否認的成果。nfL28資訊網——每日最新資訊28at.com

受此啟發,研究者提出了另一種基于卷積網絡的變體,稱為 ConvMixer。主要思想是它直接對作為輸入的 patch 進行操作,分離空間和通道維度的混合,并在整個網絡中保持相同的大小和分辨率。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

更具體地說,depthwise 卷積負責混合空間位置,而逐點卷積(1x1x 通道內核)用于混合通道位置,如下圖所示:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

通過選擇較大的內核大小來創建較大的感受野,可以實現遠距離空間位置的混合。nfL28資訊網——每日最新資訊28at.com

多尺度視覺 TransformernfL28資訊網——每日最新資訊28at.com

CNN 主干架構受益于通道的逐漸增加,同時降低了特征圖的空間維度。類似地,多尺度視覺 Transformer (MViT) 利用了將多尺度特征層次結構與視覺 Transformer 模型相結合的想法。在實踐中,作者從 3 個通道的初始圖像大小開始,逐漸擴展(分層)通道容量,同時降低空間分辨率。nfL28資訊網——每日最新資訊28at.com

因此,創建了一個多尺度的特征金字塔。直觀地說,早期層將學習高空間與簡單的低級視覺信息,而更深層負責復雜的高維特征。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

視頻分類:TimesformernfL28資訊網——每日最新資訊28at.com

在圖像任務成功后,視覺 Transformer 被應用于視頻識別。這里介紹兩種架構:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

用于視頻識別的基于 block 與基于架構 / 基于模塊的時空注意力架構。nfL28資訊網——每日最新資訊28at.com

右圖:縮小架構級別。所提出的方法將空間 Transformer 應用于投影圖像 block,然后有另一個網絡負責捕獲時間相關性。這類似于基于視頻處理的 CNN+LSTM 獲勝策略。左圖:可以在自注意力級別實現的時空注意力,紅框中是最佳組合。通過首先將圖像幀視為 token 來在時域中順序應用注意力。然后,在 MLP 投影之前應用兩個空間維度的組合空間注意力。下面是該方法的 t-SNE 可視化:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

使用 Timesformer t-SNE 進行特征可視化。nfL28資訊網——每日最新資訊28at.com

「每個視頻都可視化為一個點。屬于同一動作類別的視頻具有相同的顏色。具有分割時空注意力的 TimeSformer 比具有僅空間注意力或 ViT 的 TimeSformer 在語義上學習更多可分離的特征。」nfL28資訊網——每日最新資訊28at.com

 nfL28資訊網——每日最新資訊28at.com

語義分割中的 ViT:SegFormernfL28資訊網——每日最新資訊28at.com

英偉達提出了一種配置良好的設置,名為 SegFormer。SegFormer 的設計組件很有趣。首先,它由一個輸出多尺度特征的分層 Transformer 編碼器組成。其次,它不需要位置編碼,因為當測試分辨率與訓練不同時,這會降低性能。nfL28資訊網——每日最新資訊28at.com

SegFormer 使用一個超級簡單的 MLP 解碼器來聚合編碼器的多尺度特征。與 ViT 不同的是,SegFormer 采用了小的圖像 patch,例如 4 x 4 這種,眾所周知,這有利于密集預測任務。所提出的 Transformer 編碼器輸出 1/4、1/8、1/16、1/32 多級特征的原始圖像分辨率。這些多級特征提供給 MLP 解碼器來預測分割掩碼。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

Mix-FFN:為了減輕位置編碼的影響,研究者使用 零填充的 3 × 3 卷積層來泄漏位置信息。Mix-FFN 可以表述為:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

高效的自注意力是 PVT 中提出的,它使用縮減比率來減少序列的長度。結果可以通過可視化有效感受野 (ERF) 來定性測量:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

「SegFormer 的編碼器自然地產生局部注意力,類似于較低階段的卷積,同時能夠輸出高度非局部注意力,有效地捕捉第 4 階段的上下文。如放大補丁所示,MLP 頭部(藍色框)的 ERF 與 Stage-4(紅色框)不同,除了非局部注意力之外,局部注意力明顯更強。」nfL28資訊網——每日最新資訊28at.com

醫學成像中的視覺 Transformer:Unet + ViT = UNETRnfL28資訊網——每日最新資訊28at.com

盡管在醫學成像方面還有其他嘗試,但 UNETR 提供了最有說服力的結果。在這種方法中,ViT 適用于 3D 醫學圖像分割。研究表明,簡單的適應足以改善幾個 3D 分割任務的基線。nfL28資訊網——每日最新資訊28at.com

本質上,UNETR 使用 Transformer 作為編碼器來學習輸入音頻的序列表示。與 Unet 模型類似,它旨在有效捕獲全局多尺度信息,這些信息可以通過長殘差連接傳遞給解碼器,以不同的分辨率形成殘差連接以計算最終的語義分割輸出。nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

UNETR 架構。nfL28資訊網——每日最新資訊28at.com

以下是論文的一些分割結果:nfL28資訊網——每日最新資訊28at.com

nfL28資訊網——每日最新資訊28at.com

本文鏈接:http://m.www897cc.com/showinfo-119-2237-0.html一文梳理視覺Transformer架構進展:與CNN相比,ViT贏在哪兒?

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 谷歌Docs,現在已經可以自動生成文本摘要了!

下一篇: 韓國計劃未來3年向AI數據及網絡投資20萬億韓元 并給予其他支持

標簽:
  • 熱門焦點
  • 影音體驗是真的強 簡單聊聊iQOO Pad

    大公司的好處就是產品線豐富,非常細分化的東西也能給你做出來,例如早先我們看到了新的vivo Pad2,之后我們又在iQOO Neo8 Pro的發布會上看到了iQOO的首款平板產品iQOO Pad。雖
  • Redmi Pad評測:紅米充滿野心的一次嘗試

    從Note系列到K系列,從藍牙耳機到筆記本電腦,紅米不知不覺之間也已經形成了自己頗有競爭力的產品體系,在中端和次旗艦市場上甚至要比小米新機的表現來得更好,正所謂“大丈夫生居
  • 破圈是B站頭上的緊箍咒

    來源 | 光子星球撰文 | 吳坤諺編輯 | 吳先之每年的暑期檔都少不了瞄準追劇女孩們的古偶劇集,2021年有優酷的《山河令》,2022年有愛奇藝的《蒼蘭訣》,今年卻輪到小破站抓住了追
  • 猿輔導與新東方的兩種“歸途”

    作者|卓心月 出品|零態LT(ID:LingTai_LT)如何成為一家偉大企業?答案一定是對“勢”的把握,這其中最關鍵的當屬對企業戰略的制定,且能夠站在未來看現在,即使這其中的
  • 華為Mate 60保護殼曝光:碩大后置相機模組 凸起程度有驚喜

    這段時間以來,關于華為新旗艦的爆料日漸密集。據此前多方爆料,今年華為將開始恢復一年雙旗艦戰略,除上半年推出的P60系列外,往年下半年的Mate系列也將
  • 三星電子Q2營收60萬億韓元 存儲業務營收同比仍下滑超過50%

    7月27日消息,據外媒報道,從三星電子所發布的財報來看,他們主要利潤來源的存儲芯片業務在今年二季度仍不樂觀,營收同比仍在大幅下滑,所在的設備解決方案
  • 超級標準版旗艦!iQOO 11S全球首發iQOO超算獨顯芯片

    上半年已接近尾聲,截至目前各大品牌旗下的頂級旗艦都已悉數亮相,而下半年即將推出的頂級旗艦已經成為了數碼圈爆料的主流,其中就包括全新的iQOO 11S系
  • 英特爾Xe HPG游戲顯卡:擁有512EU,單風扇版本

    據10 月 30 日外媒 TheVerge 消息報道,英特爾 Xe HPG Arc Alchemist 的正面實被曝光,不僅擁有 512 EU 版顯卡,還擁有 128EU 的單風扇版本。另外,這款顯卡 PCB
  • 親歷馬斯克血洗Twitter,硅谷的苦日子在后頭

    文/劉哲銘  編輯/李薇  馬斯克再次揮下裁員大刀。  美國時間11月14日,Twitter約4400名外包員工遭解雇,此次被解雇的員工的主要工作為內容審核等。此前,T
Top 日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不
国产精品a久久久久久| 欧美精品在线播放| 欧美在线啊v| 久久视频一区| 欧美精品999| 国产精品欧美风情| 国产一区二区三区在线观看免费视频 | 欧美第一黄色网| 欧美午夜精品久久久久久浪潮| 国产精品亚洲综合一区在线观看| 国内精品久久久久影院薰衣草| 亚洲国产欧美一区二区三区久久 | 快she精品国产999| 欧美日韩影院| 好吊视频一区二区三区四区| 亚洲日韩视频| 欧美一区二区日韩一区二区| 免费成人黄色av| 国产精品乱码一区二三区小蝌蚪 | 欧美 日韩 国产一区二区在线视频| 欧美日韩在线一区二区三区| 国产亚洲精品久久久久动| 亚洲人成亚洲人成在线观看| 亚洲欧美一区二区三区极速播放| 狂野欧美激情性xxxx| 国产精品久久久久久久久婷婷| 尤物九九久久国产精品的分类| 一本综合久久| 老色批av在线精品| 国产精品你懂的在线| 亚洲国产日本| 久久国产精品一区二区三区四区| 欧美激情视频一区二区三区在线播放| 国产欧美日韩精品丝袜高跟鞋| 亚洲精品久久久久| 久久精品国产亚洲5555| 欧美涩涩视频| 91久久国产精品91久久性色| 欧美在线看片| 欧美视频在线免费| 亚洲观看高清完整版在线观看| 午夜精品成人在线| 欧美日韩免费高清一区色橹橹| 伊人久久久大香线蕉综合直播 | 一区二区福利| 欧美本精品男人aⅴ天堂| 国产欧美一区在线| 亚洲视频狠狠| 欧美片在线播放| 在线精品国精品国产尤物884a| 亚洲欧美国产日韩天堂区| 欧美精品亚洲| 91久久精品国产91久久| 久久久女女女女999久久| 国产精品一区二区你懂得| 一本色道久久综合亚洲91| 欧美成人dvd在线视频| 黄色成人av网| 久久久福利视频| 国产午夜亚洲精品不卡| 亚洲欧美激情一区| 国产精品成人在线| 在线一区观看| 欧美日韩精品一区视频| 亚洲人成在线观看网站高清| 麻豆精品传媒视频| 一区精品在线| 另类av导航| 狠狠爱www人成狠狠爱综合网| 欧美一区二区在线播放| 国产精品综合| 午夜精品久久久久久| 国产精品久久国产三级国电话系列| 99综合视频| 欧美日韩亚洲国产精品| 99av国产精品欲麻豆| 欧美日韩国产在线| av成人动漫| 欧美视频一区二| 亚洲婷婷免费| 欧美a级片网| 亚洲黑丝在线| 国产日韩欧美中文在线播放| 欧美日韩视频| 香蕉国产精品偷在线观看不卡| 亚洲精品乱码久久久久久久久| 欧美三级资源在线| 久久久97精品| 性欧美长视频| 亚洲视频免费在线观看| 99亚洲视频| 亚洲午夜性刺激影院| 亚洲午夜久久久| 午夜免费电影一区在线观看| 亚洲午夜羞羞片| 99精品欧美| 国语精品一区| 禁久久精品乱码| 亚洲风情亚aⅴ在线发布| 欧美精品在线看| 欧美成人午夜77777| 亚洲欧美在线x视频| 一区二区三欧美| 亚洲欧美国产制服动漫| 欧美一区二视频在线免费观看| 欧美专区亚洲专区| 久久精品一区二区三区不卡| 久久一区亚洲| 狠狠色丁香久久婷婷综合丁香| 亚洲天堂网站在线观看视频| 欧美视频在线观看视频极品| 亚洲精品偷拍| 亚洲在线观看免费视频| 国产精品成人一区二区三区夜夜夜| 国产精品亚洲一区| 国产曰批免费观看久久久| 国产精品久久久久99| 国产精品蜜臀在线观看| 国产一区日韩二区欧美三区| 欧美日韩一区二区三区免费| 欧美日韩精品免费| 国产精品久久久久久福利一牛影视| 欧美欧美全黄| 国产午夜精品理论片a级大结局| 亚洲国产精品高清久久久| 欧美日韩一区二区视频在线观看| 黑丝一区二区| 久久精品一区中文字幕| 母乳一区在线观看| 国产精品日本一区二区| 亚洲成人在线观看视频| 另类激情亚洲| 国内精品国语自产拍在线观看| 久久久欧美一区二区| 国产欧美日韩亚洲一区二区三区| 午夜精品久久久久久久| 欧美日韩中文字幕| 亚洲美女视频| 欧美日韩国产麻豆| 性久久久久久久久久久久| 亚洲高清在线精品| 国产精品免费久久久久久| 麻豆九一精品爱看视频在线观看免费| 99视频一区二区三区| 国产伊人精品| 国产精品igao视频网网址不卡日韩| 久久精品夜色噜噜亚洲aⅴ| 日韩视频在线观看一区二区| 国产亚洲视频在线| 欧美视频一区二区在线观看 | 亚洲一区影音先锋| 亚洲国产一二三| 国产欧美日韩视频| 欧美日韩国产综合网| 久久久夜夜夜| 亚洲欧美在线免费观看| 亚洲精品资源美女情侣酒店| 狠狠色狠色综合曰曰| 国产精品久久国产精麻豆99网站| 欧美成熟视频| 久久久精品免费视频| 亚洲色图综合久久| 亚洲国产精品久久久久秋霞蜜臀 | 亚洲黄色影院| 国语精品一区| 国产欧美一区二区精品忘忧草| 欧美日韩国产综合一区二区| 久久久精彩视频| 校园激情久久| 亚洲一二三区在线观看| 亚洲精品国产精品久久清纯直播 | 欧美精品v日韩精品v国产精品| 久久人人爽人人爽爽久久| 欧美在线91| 亚洲欧美日韩久久精品| 夜夜狂射影院欧美极品| 亚洲人成亚洲人成在线观看| 亚洲大片在线观看| 狠狠久久五月精品中文字幕| 国产农村妇女毛片精品久久莱园子 | 国产午夜精品久久久| 国产精品h在线观看| 欧美精品在线观看播放| 另类激情亚洲| 久久久久国产成人精品亚洲午夜| 亚洲欧美一级二级三级| 亚洲网站视频福利| 一区二区三区黄色| 一本大道av伊人久久综合| 亚洲免费观看在线观看| 亚洲毛片在线免费观看| 亚洲精品视频啊美女在线直播| 亚洲国产高清aⅴ视频| 一区二区三区自拍| 好看的av在线不卡观看| 韩日精品视频一区| 黑人巨大精品欧美黑白配亚洲 | 日韩一级精品| 99成人在线| 在线一区欧美| 亚洲一区网站| 亚洲欧美三级伦理| 久久gogo国模裸体人体| 久久精品人人做人人爽电影蜜月|