在线不卡日本ⅴ一区v二区_精品一区二区中文字幕_天堂v在线视频_亚洲五月天婷婷中文网站

  • <menu id="lky3g"></menu>
  • <style id="lky3g"></style>
    <pre id="lky3g"><tt id="lky3g"></tt></pre>

    WWW 2022 – 無監(jiān)督圖結(jié)構(gòu)學(xué)習(xí)

    WWW 2022 - 無監(jiān)督圖結(jié)構(gòu)學(xué)習(xí)

    本文約4500字,建議閱讀10+分鐘

    本文率先提出了無監(jiān)督圖結(jié)構(gòu)學(xué)習(xí)的范式,旨在不依賴標(biāo)簽信息的條件下,從數(shù)據(jù)本身中學(xué)習(xí)更普適、更高質(zhì)量的圖結(jié)構(gòu)。

    作者 | Yuki

    研究方向 | 推薦系統(tǒng),圖神經(jīng)網(wǎng)絡(luò)

    論文題目:

    Towards Unsupervised Deep Graph Structure Learning

    論文鏈接:

    https://arxiv.org/pdf/2201.06367.pdf

    代碼鏈接:

    https://github.com/GRAND-Lab/SUBLIME

    參考鏈接:

    https://mp.weixin.qq.com/s/k66maMGcufw4svmIRC13zA

    一、前言

    近年來,圖神經(jīng)網(wǎng)絡(luò)(graph neural networks,GNNs)被廣泛應(yīng)用于各種圖數(shù)據(jù)相關(guān)的任務(wù)當(dāng)中。然而,圖神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)十分依賴于輸入的圖結(jié)構(gòu)數(shù)據(jù)(即圖數(shù)據(jù)中各節(jié)點(diǎn)的關(guān)聯(lián)),大大影響了其魯棒性和普適性。一方面,現(xiàn)實(shí)系統(tǒng)中獲取的圖結(jié)構(gòu)數(shù)據(jù)難免包含噪聲信息,會(huì)存在多余邊或缺失邊的問題;在學(xué)習(xí)過程中,GNN 很容易受到這些噪聲數(shù)據(jù)的影響,從而導(dǎo)致其性能下降。另一方面,對圖結(jié)構(gòu)的依賴也使得 GNN 無法應(yīng)用于沒有顯式結(jié)構(gòu)的非結(jié)構(gòu)數(shù)據(jù)學(xué)習(xí),盡管這些數(shù)據(jù)中可能存在隱性的結(jié)構(gòu)信息。這種對輸入結(jié)構(gòu)的依賴,使得 GNN 難以應(yīng)用于廣泛存在于現(xiàn)實(shí)世界的非結(jié)構(gòu)數(shù)據(jù)當(dāng)中。

    為了解決上述問題,現(xiàn)有方法對圖結(jié)構(gòu)學(xué)習(xí)(graph structure learning,GSL)進(jìn)行研究,該技術(shù)旨在利用 GNN 對輸入圖結(jié)構(gòu)本身進(jìn)行學(xué)習(xí)和優(yōu)化。目前的圖結(jié)構(gòu)學(xué)習(xí)主要遵循有監(jiān)督范式,即:利用節(jié)點(diǎn)分類這一下游任務(wù)的標(biāo)簽信息,對圖結(jié)構(gòu)和 GNN 進(jìn)行協(xié)同優(yōu)化。這種范式雖被證明有效,卻存在著一些局限性:

    1. 依賴于標(biāo)簽信息,在有監(jiān)督 GSL 方法中,在進(jìn)行圖結(jié)構(gòu)優(yōu)化時(shí)人工標(biāo)注的標(biāo)簽在扮演了至關(guān)重要的角色,然而對標(biāo)簽數(shù)據(jù)的依賴限制了有監(jiān)督 GSL 的在更廣泛的無標(biāo)簽數(shù)據(jù)中的應(yīng)用;

    2. 學(xué)習(xí)到的邊分布存在偏差,節(jié)點(diǎn)分類通常以半監(jiān)督的形式進(jìn)行,只有一小部分節(jié)點(diǎn)是有標(biāo)簽的(如在 Cora 數(shù)據(jù)集有標(biāo)簽節(jié)點(diǎn)的比例為 140/2708 ),因此這些標(biāo)簽節(jié)點(diǎn)之間的連接及其鄰居會(huì)接收到更多的監(jiān)督,從而造成學(xué)到的邊分布存在不均勻和偏差;

    3. 下游任務(wù)的局限性,在現(xiàn)有的方法中,結(jié)構(gòu)學(xué)習(xí)通常依賴節(jié)點(diǎn)分類來提供監(jiān)督信號,因此學(xué)習(xí)到的圖結(jié)構(gòu)通常是任務(wù)特定而不是通用的,可能對于下游其他任務(wù)沒有幫助(如鏈接預(yù)測和節(jié)點(diǎn)聚類)。

    為了解決上述局限,文中提出了一種新的用于 GSL 的無監(jiān)督學(xué)習(xí)范式(unsupervised graph structure learning)。如圖 1 所示,該學(xué)習(xí)范式不依靠任何額外的標(biāo)簽信息,僅根據(jù)輸入數(shù)據(jù)本身對圖結(jié)構(gòu)進(jìn)行學(xué)習(xí)或改進(jìn),因此學(xué)習(xí)到的圖結(jié)構(gòu)是通用的無偏的。針對新的學(xué)習(xí)范式,本文提出了一種基于結(jié)構(gòu)自引導(dǎo)的自監(jiān)督對比學(xué)習(xí)方法(StrUcture Bootstrapping Contrastive LearnIng fraMEwork, SUBLIME)。該方法主要有一下三點(diǎn)貢獻(xiàn):

    1. 提出了一種新的用于 GSL 的無監(jiān)督學(xué)習(xí)范式,相較于其他基于監(jiān)督學(xué)習(xí)的 GSL,該范式更具有實(shí)踐性。

    2. 提出了一種新的無監(jiān)督 GSL 方法——SUBLIME,該方法采用對比學(xué)習(xí)技術(shù),從原數(shù)據(jù)本身中獲取監(jiān)督信號來引導(dǎo)結(jié)構(gòu)學(xué)習(xí),并同時(shí)利用學(xué)到的結(jié)構(gòu)信息對監(jiān)督信息進(jìn)行更新。

    3. 大量實(shí)驗(yàn)證明了 SUBLIME 的有效性。

    二、問題定義

    在介紹無監(jiān)督 GSL 之前,先給出圖的定義。給出一個(gè)屬性圖 , 表示節(jié)點(diǎn)集合(), 表示邊集合(), 表示特征矩陣, 表示鄰接矩陣。

    本文針對兩種輸入數(shù)據(jù)的情況,定義了兩種無監(jiān)督圖結(jié)構(gòu)學(xué)習(xí)問題,即“結(jié)構(gòu)推理”(structure inference)和“結(jié)構(gòu)改進(jìn)”(structure refinement)。具體的,結(jié)構(gòu)推理用于一般性的數(shù)據(jù)(圖結(jié)構(gòu)未定義或缺失),該任務(wù)目標(biāo)是從非結(jié)構(gòu)化的數(shù)據(jù)中(僅包含特征矩陣 )學(xué)習(xí)出潛在的圖結(jié)構(gòu) 。

    結(jié)構(gòu)改進(jìn)的目標(biāo)則是從含噪聲的圖結(jié)構(gòu)數(shù)據(jù)(包含特征矩陣 和鄰接矩陣 )中對原有的圖結(jié)構(gòu)進(jìn)行改進(jìn)得到改進(jìn)后的圖結(jié)構(gòu) 。本文假設(shè)學(xué)習(xí)得到的圖結(jié)構(gòu) 能夠更好的揭示節(jié)點(diǎn)之間的真實(shí)連接關(guān)系,并可被廣泛應(yīng)用于各種下游任務(wù)中。

    三、方法

    本文所提出的 SUBLIME 主要包含了兩個(gè)組件:圖結(jié)構(gòu)學(xué)習(xí)模塊(Graph Structure Learning Module)以及結(jié)構(gòu)自引導(dǎo)對比學(xué)習(xí)模塊(Structure Bootstrapping Contrastive Learning Module),SUBLIME 的結(jié)構(gòu)圖如圖 2 所示,在圖結(jié)構(gòu)學(xué)習(xí)模塊中,首先應(yīng)用圖學(xué)習(xí)器(Graph Learner)來建模圖結(jié)構(gòu),然后通過后處理器(Post-Processor)對建模的圖結(jié)構(gòu)進(jìn)行規(guī)范化。

    在結(jié)構(gòu)自引導(dǎo)對比學(xué)習(xí)模塊中,首先定義了學(xué)習(xí)者視圖(Learner view)和參考視角(Anchor View)用于對比。具體的,前者由學(xué)習(xí)到的圖結(jié)構(gòu)構(gòu)成,后者則從原始數(shù)據(jù)中初始化而來。然后分別對兩種視角應(yīng)用數(shù)據(jù)增強(qiáng)(Data Augmentation)。

    接下來最大化兩種視角之間的互信息(Mutual Information),為圖結(jié)構(gòu)學(xué)習(xí)提供監(jiān)督信號。此外,文中還設(shè)計(jì)了一種結(jié)構(gòu)自引導(dǎo)機(jī)制,利用從學(xué)習(xí)者視角中學(xué)到的信息對參考視角進(jìn)行優(yōu)化。下面將對上述組件一一介紹。

    3.1 圖學(xué)習(xí)器

    圖學(xué)習(xí)器是 GSL 的關(guān)鍵組成部分,其用于學(xué)習(xí)一個(gè)粗略(sketched)鄰接矩陣 ,大多數(shù)現(xiàn)有的方法通常采用單一的圖學(xué)習(xí)器,無法適應(yīng)不同數(shù)據(jù)的特性。為了適應(yīng)不同輸入數(shù)據(jù)的需要,本文采用了四種圖學(xué)習(xí)器來建模圖結(jié)構(gòu),包括一種全圖參數(shù)化學(xué)習(xí)器(FGP Learner),和三種基于度量學(xué)習(xí)的學(xué)習(xí)器(Metric Learning-based Learners)。通常圖學(xué)習(xí)器可以表示為 , 為模型參數(shù)。

    FGP 學(xué)習(xí)器對鄰接矩陣的每個(gè)元素都用一個(gè)可學(xué)習(xí)的參數(shù)來建模,并應(yīng)用一個(gè)非線性激活函數(shù) 來保證訓(xùn)練的穩(wěn)定性:

    而基于度量學(xué)習(xí)的學(xué)習(xí)器中,首先會(huì)由一個(gè)基于神經(jīng)網(wǎng)絡(luò)的嵌入函數(shù)來得到節(jié)點(diǎn)嵌入,然后通過無參數(shù)的度量函數(shù)(比如余弦相似度)來得到鄰接矩陣中的而基于度量學(xué)習(xí)的學(xué)習(xí)器中,首先會(huì)由一個(gè)基于神經(jīng)網(wǎng)絡(luò)的嵌入函數(shù) 來得到節(jié)點(diǎn)嵌入,然后通過無參數(shù)的度量函數(shù) (比如余弦相似度)來得到鄰接矩陣中的值:

    通過定義不同的嵌入函數(shù) ,本文提供了三種不同的學(xué)習(xí)器:1)注意力學(xué)習(xí)器(Attentive Learner);2)多層感知機(jī)學(xué)習(xí)器(MLP Learner);3)圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)器(GNN Learner):采用 GNN 進(jìn)行節(jié)點(diǎn)嵌入的編碼。

    注意力學(xué)習(xí)器采用注意力機(jī)制來生成的節(jié)點(diǎn)嵌入:

    多層感知機(jī)學(xué)習(xí)器采用多層堆疊的 MLP 層來計(jì)算節(jié)點(diǎn)嵌入:

    圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)器采用 GNN 進(jìn)行節(jié)點(diǎn)嵌入的編碼:

    在 SUBLIME 中根據(jù)數(shù)據(jù)集特性選擇了最合適的學(xué)習(xí)器來建模圖結(jié)構(gòu) 。

    3.2 后處理器

    經(jīng)由圖學(xué)習(xí)器得到的鄰接矩陣 通常比較粗糙,無法具備真實(shí)圖結(jié)構(gòu)的許多特性。因此,文中使用后處理對這個(gè)鄰接矩陣進(jìn)一步優(yōu)化,從而產(chǎn)生一個(gè)精煉的圖鄰接矩陣。后處理器中的步驟主要分為 4 步:

    1)稀疏化 Sparsification(基于kNN):

    2)對稱化 Symmetrization(基于矩陣轉(zhuǎn)置求平均)與 3)非負(fù)化 Activation(基于 ReLU 激活函數(shù)):

    4)歸一化 Normalization(基于對稱歸一化處理):

    式中 表示 的都矩陣。

    通過上述一系列后處理步驟,最終得到一個(gè)稀疏、非負(fù)、對稱且正歸一鄰接矩陣 。

    3.3 多視角圖對比學(xué)習(xí)

    當(dāng)對學(xué)習(xí)到的圖結(jié)構(gòu)(鄰接矩陣)進(jìn)行建模后,文中采用多視角對比學(xué)習(xí)的方式,通過從原數(shù)據(jù)中獲取監(jiān)督信號來指導(dǎo)圖結(jié)構(gòu)的優(yōu)化?;趯W(xué)到的鄰接矩陣,我們將其與特征矩陣 進(jìn)行結(jié)合,得到學(xué)習(xí)者視角(Learner View),記為 。

    文中利用原始數(shù)據(jù)對參考視角(Anchor View)進(jìn)行初始化,該視角為圖結(jié)構(gòu)的學(xué)習(xí)提供指引。具體地,若原數(shù)據(jù)帶有圖結(jié)構(gòu),我們會(huì)將該視角初始化為原始特征矩陣和鄰接矩陣:;若原數(shù)據(jù)不含圖結(jié)構(gòu),將其中的鄰接矩陣初始化為單位矩陣:。

    視角構(gòu)建完成后,文中設(shè)計(jì)兩種數(shù)據(jù)增廣方式:

    1)隨機(jī)遮掩特征(Feature Masking),對于給定的特征矩陣 ,首先采樣遮掩向量 ,采樣過程服從參數(shù)為 的伯努利分布,隨機(jī)遮掩過程定義如下:

    表示隨機(jī)丟棄連接操作符。

    2)隨機(jī)丟棄連接(Edge Dropping),對于給定的鄰接矩陣 ,首先采樣遮掩矩陣 ,采樣過程服從參數(shù)為 的伯努利分布,隨機(jī)丟棄過程定義如下:

    表示隨機(jī)丟棄連接操作符。

    通過增大對比學(xué)習(xí)任務(wù)的難度,使模型能夠探索到更高質(zhì)量的圖結(jié)構(gòu)。

    在 SUBLIME 中對學(xué)習(xí)者視角和參考視角同時(shí)使用了上述兩種增廣方式:

    值得一提的是為了提高兩個(gè)視角間的差異性(上下文差異)。對于隨機(jī)遮掩特征,采用了不同的 probabilities,。但是對于隨機(jī)丟棄連接,文中使用了相同的 dropping probability,,因?yàn)閮蓚€(gè)視角的鄰接矩陣本身差異明顯。

    下一步,采用節(jié)點(diǎn)級的對比學(xué)習(xí)模型來最大化兩個(gè)視角的互信息。具體地,增廣后兩個(gè)視角圖首先經(jīng)由兩層 GCN 的編碼,得到每個(gè)節(jié)點(diǎn)的表征:

    表示基于 GCN 的 encoder, 是 encoder 的模型參數(shù)。

    然后,經(jīng)過由兩層 MLP 網(wǎng)絡(luò)構(gòu)成的投影網(wǎng)絡(luò),得到兩個(gè)視角對應(yīng)的投影矩陣:

    最后,采用 NT-Xent 損失(Normalized Temperature-Scaled Cross-Entropy loss)函數(shù)來最大化兩個(gè)投影矩陣中對應(yīng)節(jié)點(diǎn)的相似度,從而最大化兩個(gè)視角的互信息:

    指代余弦相似度函數(shù), 為溫度系數(shù), 與 同時(shí)計(jì)算。

    3.4 結(jié)構(gòu)自引導(dǎo)機(jī)制

    通過固定的參考鄰接矩陣 (定義為 或者 )的指引,我們已經(jīng)可以采用該模型進(jìn)行結(jié)構(gòu)學(xué)習(xí)。然而,這樣的固定參考存在以下不足:1)原結(jié)構(gòu)中包含的噪聲邊會(huì)對學(xué)到的圖結(jié)構(gòu)產(chǎn)生誤導(dǎo);2)固定的參考鄰接矩陣包含的信息有限,很難提供持續(xù)的指引;3)在學(xué)習(xí)過程中,容易對固定的結(jié)構(gòu)產(chǎn)生過擬合。

    在自引導(dǎo)(Bootstrapping)的算法的啟發(fā)下,我們設(shè)計(jì)了一種結(jié)構(gòu)自引導(dǎo)機(jī)制(Structure Bootstrapping Mechanism)對參考鄰接矩陣進(jìn)行更新,從而提供可靠、持續(xù)、有效的結(jié)構(gòu)學(xué)習(xí)指引。具體地,我們基于 slow-moving 的思想,利用學(xué)到的鄰接矩陣 ,間歇地對參考鄰接矩陣 進(jìn)行更新 :

    一般來說

    取值要大于 0.99,用來保證訓(xùn)練的穩(wěn)定性。

    受益與結(jié)構(gòu)自引導(dǎo)機(jī)制,SUBLIME 可以很好的解決上述的問題。隨著更新過程,一些 中的噪聲邊權(quán)重逐漸降低。與此同時(shí),學(xué)習(xí)目標(biāo) 隨著訓(xùn)練過程發(fā)生改變,其吸收了更多的有益信息來指導(dǎo)圖結(jié)構(gòu)的學(xué)習(xí),緩解了過擬合的問題。更重要的是,我們的結(jié)構(gòu)自引導(dǎo)機(jī)制利用所學(xué)的知識(shí),反過來改善學(xué)習(xí)目標(biāo),不斷推動(dòng)模型發(fā)現(xiàn)更優(yōu)的圖結(jié)構(gòu)。

    四、實(shí)驗(yàn)

    4.1 實(shí)驗(yàn)設(shè)置

    本文在 8 個(gè)數(shù)據(jù)集上展開實(shí)驗(yàn),包括 4 個(gè)圖結(jié)構(gòu)數(shù)據(jù)集(Cora、CiteSeer、PubMed、ogbn-arxiv)以及 4 個(gè)非結(jié)構(gòu)數(shù)據(jù)集(Wine、Cancer、Digits、20news)。我們在兩個(gè)下游任務(wù)(節(jié)點(diǎn)分類和節(jié)點(diǎn)聚類)上評估學(xué)習(xí)結(jié)構(gòu)的質(zhì)量,并和一系列先進(jìn)的方法進(jìn)行對比。

    4.2 性能對比

    文中在三個(gè)場景進(jìn)行對比:結(jié)構(gòu)推理下的節(jié)點(diǎn)分類(表1),結(jié)構(gòu)改進(jìn)下的節(jié)點(diǎn)分類(表2),以及結(jié)構(gòu)改進(jìn)下的節(jié)點(diǎn)聚類(表3)。從實(shí)驗(yàn)結(jié)果可以看出,本文提出的方法在幾乎所有場景和數(shù)據(jù)集中都能取得最優(yōu)或次優(yōu)的性能,說明了該方法能夠?qū)W習(xí)到高質(zhì)量且普適的圖結(jié)構(gòu)。

    4.3 消融實(shí)驗(yàn)

    通過改變超參數(shù) 的值,文中對結(jié)構(gòu)自引導(dǎo)機(jī)制開展進(jìn)一步研究。實(shí)驗(yàn)結(jié)果可以看出,當(dāng) 時(shí),SUBLIME 在三個(gè)數(shù)據(jù)集上都具有最佳的性能,說明適中的更新強(qiáng)度能夠更好地更新參考視角。通過進(jìn)一步分析準(zhǔn)確率和損失函數(shù)的變化可以看出,當(dāng) 時(shí),此時(shí)結(jié)構(gòu)自引導(dǎo)機(jī)制失效,在訓(xùn)練過程中會(huì)出現(xiàn)過擬合的情況,導(dǎo)致性能下降。當(dāng) 時(shí),此時(shí)會(huì)高強(qiáng)度地更新參考視角,導(dǎo)致訓(xùn)練過程非常不穩(wěn)定,影響最終性能。

    4.4 參數(shù)實(shí)驗(yàn)

    本實(shí)驗(yàn)研究了兩個(gè)超參數(shù)對性能的影響,包括隨機(jī)遮掩特征的比率,以及 kNN 稀疏化中 k 的取值。從下圖的實(shí)驗(yàn)結(jié)果可以看出,適中的超參數(shù)取值能帶來最佳的性能,而過大/過小的取值都會(huì)導(dǎo)致模型性能的下降。

    4.5 魯棒性分析

    為了研究 SUBLIME 在含噪聲圖結(jié)構(gòu)下的性能,文中隨機(jī)地增加或刪除圖結(jié)構(gòu)中的邊,并觀測該方法在不同比率擾動(dòng)下的性能。由下圖可以看出,相比有監(jiān)督的結(jié)構(gòu)學(xué)習(xí)方法 Pro-GNN,SUBLIME 在兩個(gè)場景下都能取得更好或相當(dāng)?shù)男阅?。尤其在大量邊都被刪除的情況下,SUBLIME 仍然能學(xué)習(xí)到高質(zhì)量的圖結(jié)構(gòu),遠(yuǎn)超其他方法的性能。

    4.6 可視化

    為了研究 SUBLIME 究竟學(xué)到了怎樣的圖結(jié)構(gòu),我們對學(xué)到的部分圖結(jié)構(gòu)進(jìn)行可視化。我們考慮了兩個(gè)類別(C 和 R)的節(jié)點(diǎn),分別在訓(xùn)練集(L)和測試集(U)中選擇了 10 個(gè)節(jié)點(diǎn)進(jìn)行可視化。從下圖可以看出,SUBLIME 可以學(xué)習(xí)到大量同類節(jié)點(diǎn)之間的連接。同時(shí),相比有監(jiān)督方法 Pro-GNN,我們的方法能夠均勻地學(xué)習(xí)到每個(gè)節(jié)點(diǎn)之間潛在的連接,而不會(huì)出現(xiàn)邊分布偏差的情況。

    五、總結(jié)

    本文率先提出了無監(jiān)督圖結(jié)構(gòu)學(xué)習(xí)的范式,旨在不依賴標(biāo)簽信息的條件下,從數(shù)據(jù)本身中學(xué)習(xí)更普適、更高質(zhì)量的圖結(jié)構(gòu)。為了解決無監(jiān)督圖結(jié)構(gòu)學(xué)習(xí)問題,本文提出了一種基于結(jié)構(gòu)自引導(dǎo)的自監(jiān)督對比學(xué)習(xí)方法 SUBLIME,通過最大化兩個(gè)視角的互信息的方式對結(jié)構(gòu)進(jìn)行建模、學(xué)習(xí)和優(yōu)化。實(shí)驗(yàn)證明,相比有監(jiān)督方法,我們的方法能夠?qū)W習(xí)到更高質(zhì)量的圖結(jié)構(gòu)。我們的方法有望應(yīng)用于各種實(shí)際應(yīng)用中,包括但不限于生物信息學(xué)研究,腦電波分析,交通流量預(yù)測以及計(jì)算機(jī)視覺等領(lǐng)域。

    鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
    用戶投稿
    上一篇 2022年6月28日 17:36
    下一篇 2022年6月28日 17:36

    相關(guān)推薦

    • 分享4條發(fā)微商朋友圈的方法(微商朋友圈應(yīng)該怎么發(fā))

      對于微商朋友來說,朋友圈的重要性不言而喻了。 那么微商的朋友圈到底該怎么發(fā)呢? 為什么同樣是經(jīng)營一個(gè)朋友圈,有的微商看起來逼格滿滿,實(shí)際效果也不錯(cuò);而有的卻動(dòng)都不動(dòng)就被屏蔽甚至拉黑…

      2022年11月27日
    • 《寶可夢朱紫》夢特性怎么獲得?隱藏特性獲取方法推薦

      寶可夢朱紫里有很多寶可夢都是擁有夢特性會(huì)變強(qiáng)的寶可夢,很多玩家不知道夢特性怎么獲得,下面就給大家?guī)韺毧蓧糁熳想[藏特性獲取方法推薦,感興趣的小伙伴一起來看看吧,希望能幫助到大家。 …

      2022年11月25日
    • 《寶可夢朱紫》奇魯莉安怎么進(jìn)化?奇魯莉安進(jìn)化方法分享

      寶可夢朱紫中的奇魯莉安要怎么進(jìn)化呢?很多玩家都不知道,下面就給大家?guī)韺毧蓧糁熳掀骠斃虬策M(jìn)化方法分享,感興趣的小伙伴一起來看看吧,希望能幫助到大家。 奇魯莉安進(jìn)化方法分享 奇魯莉安…

      2022年11月25日
    • 什么是推廣cpa一篇文章帶你看懂CPA推廣渠道

      CPA渠道 CPA指的是按照指定的行為結(jié)算,可以是搜索,可以是注冊,可以是激活,可以是搜索下載激活,可以是綁卡,實(shí)名認(rèn)證,可以是付費(fèi),可以是瀏覽等等。甲乙雙方可以根據(jù)自己的情況來定…

      2022年11月25日
    • 抖音直播帶貨有哪些方法技巧(抖音直播帶貨有哪些痛點(diǎn))

      如今抖音這個(gè)短視頻的變現(xiàn)能力越來越突顯了,尤其是在平臺(tái)上開通直播,更具有超強(qiáng)的帶貨屬性,已經(jīng)有越來越多的普通人加入到其中了。不過直播帶貨雖然很火,但是也不是每個(gè)人都能做好的,那么在…

      2022年11月24日
    • OPPO Reno9 Pro+硬件規(guī)格強(qiáng) 搭載驍龍8+旗艦處理器

      OPPO Reno9系列正式發(fā)布,Reno9 Pro+作為三款新機(jī)中定位最高的超大杯機(jī)型,整體配置較上一代有著大幅度的升級,如果單看硬件配置的話,Reno9 Pro+甚至是目前OP…

      2022年11月24日
    • 園屬于什么結(jié)構(gòu)(園的結(jié)構(gòu)和部首)

      園 yuán:全包圍結(jié)構(gòu),平穩(wěn)端正中稍帶左收右展。 外部“口” 體態(tài)端莊,稍抗肩,稍帶左輕右重。左豎起筆稍抖,豎身勿重,稍左斜,垂露收筆;第二筆橫折壓著左豎起筆,橫畫稍抗肩,不要重…

      2022年11月24日
    • 明查|美國新冠后遺癥患者中有16%癥狀嚴(yán)重以致無法工作?

      點(diǎn)擊進(jìn)入澎湃新聞全球事實(shí)核查平臺(tái) 速覽 – 網(wǎng)傳數(shù)據(jù)比例無權(quán)威信源佐證,該比例有可能是結(jié)合了美國疾病防控中心和布魯金斯學(xué)會(huì)的數(shù)據(jù)得出,但這兩個(gè)機(jī)構(gòu)的調(diào)研目的和樣本都不同…

      2022年11月24日
    • 《寶可夢朱紫》暴飛龍?jiān)趺醋ィ勘╋w龍獲得方法

      寶可夢朱紫暴飛龍位置在哪?在游戲中,很多玩家還不清楚暴飛龍具體要怎么樣獲得,其實(shí)獲得方法很簡單,暴飛龍直接是沒得抓的,需要玩家從寶貝龍進(jìn)化得到,下面一起來看一下寶可夢朱紫暴飛龍獲得…

      2022年11月23日
    • 《寶可夢朱紫》布土撥怎么進(jìn)化?布土撥進(jìn)化方法介紹

      寶可夢朱紫中,不同的寶可夢有不同的進(jìn)化方法,其中布土撥的進(jìn)化方法是比較特殊的。很多玩家不知道寶可夢朱紫布土撥怎么進(jìn)化,下面就帶來寶可夢朱紫布土撥進(jìn)化方法介紹,一起來看看吧,希望能幫…

      2022年11月23日

    聯(lián)系我們

    聯(lián)系郵箱:admin#wlmqw.com
    工作時(shí)間:周一至周五,10:30-18:30,節(jié)假日休息