Fungsi carian sedang dalam pembinaan.
Fungsi carian sedang dalam pembinaan.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

Open Access
Pattern-Based Meta Graph Neural Networks for Argument Classifications
Membuka akses
Rangkaian Neural Meta Graf Berasaskan Corak untuk Pengelasan Argumen

Shiyao DING, Takayuki ITO

  • pandangan teks lengkap

    299

  • Petikan Ini
  • Free PDF (1.6MB)

Ringkasan:

Walaupun kemajuan terkini dalam menggunakan meta-pembelajaran untuk menangani cabaran generalisasi rangkaian saraf graf (GNN), prestasi mereka dalam tugas perlombongan argumentasi, seperti klasifikasi hujah, masih agak terhad. Ini disebabkan terutamanya oleh penggunaan pengetahuan pola potensi yang kurang intrinsik kepada struktur argumentasi. Untuk menangani isu ini, kajian kami mencadangkan kaedah meta-GNN berasaskan corak dua peringkat berbeza dengan pendekatan meta-GNN bebas corak konvensional. Pada mulanya, kaedah kami menumpukan pada mempelajari perwakilan corak peringkat tinggi untuk menangkap pengetahuan corak secara berkesan dalam struktur penghujahan dan kemudian meramalkan jenis kelebihan. Ia kemudiannya menggunakan rangka kerja meta-pembelajaran dalam peringkat kedua, yang direka untuk melatih pelajar meta berdasarkan jenis kelebihan yang diramalkan. Ciri ini membolehkan generalisasi pantas kepada graf argumentasi novel. Melalui eksperimen ke atas set data perbincangan bahasa Inggeris sebenar yang merangkumi pelbagai topik, keputusan kami menunjukkan bahawa kaedah yang dicadangkan kami dengan ketara mengatasi pendekatan GNN tanpa corak konvensional, menandakan kemajuan yang ketara dalam domain ini.

Jawatankuasa
IEICE TRANSACTIONS on Information Vol.E107-D No.4 pp.451-458
Tarikh penerbitan
2024/04/01
Diumumkan
2023/12/11
ISSN dalam talian
1745-1361
DOI
10.1587/transinf.2023IHP0013
Jenis Manuskrip
Special Section PAPER (Special Section on Information and Communication Technology to Support Hyperconnectivity)
kategori

1. Pengenalan

Klasifikasi hujah ialah tugas asas dalam bidang perlombongan argumentasi (AM) yang melibatkan pengelasan automatik label hujah [1]-[4]. Memandangkan elemen argumentasi mempamerkan bias induktif hubungan yang kuat [5], rangkaian saraf graf (GNN) sering digunakan dalam tugas pengelasan hujah kerana mereka mahir mempelajari maklumat grafik terpendam yang wujud dalam struktur argumentasi.

Walau bagaimanapun, cabaran penting timbul apabila menggunakan GNN dalam tugasan penghujahan—menyesuaikan model GNN terlatih kepada graf penghujahan baharu, situasi yang dirujuk sebagai 'masalah generalisasi'. Ini timbul kerana setiap set data argumentasi sepadan dengan graf argumentasi yang unik, malah perubahan kecil pada graf boleh menyebabkan model GNN terlatih gagal apabila digunakan pada graf argumentasi baharu. Meta-pembelajaran, kaedah yang berusaha untuk mewujudkan model yang boleh menyesuaikan model yang dipelajari kepada pelbagai tugas, adalah penyelesaian yang cekap untuk masalah generalisasi ini. Kaedah GNN berasaskan meta-pembelajaran seperti Meta-GNN [6], G-META [7], dan Sub-Meta [8] telah dicadangkan untuk menangani masalah generalisasi model GNN. Walau bagaimanapun, keberkesanannya biasanya terhad apabila digunakan secara langsung untuk tugas perlombongan argumentasi. Had ini disebabkan terutamanya oleh corak pratakrif yang wujud dalam struktur argumentasi (seperti perhubungan elemen argumentasi dengan label tertentu), faktor yang diabaikan oleh kaedah ini. Sebagai contoh, struktur penghujahan dalam platform seperti D-Agree [9] selalunya mengikut corak topik-komen-balas. Oleh itu, mengiktiraf dan menggunakan pengetahuan corak sedemikian boleh meningkatkan prestasi GNN dalam tugas AM.

Berbeza dengan kaedah GNN tanpa corak, kami memperkenalkan kaedah meta-GNN berasaskan corak dua peringkat untuk klasifikasi hujah. Pada peringkat pertama, kami mencadangkan algoritma perwakilan corak untuk menangkap pengetahuan corak yang kemudiannya digunakan untuk meramal jenis tepi dalam graf argumentasi. Pada peringkat kedua, berdasarkan label yang diramalkan untuk semua tepi, hubungan-GCN (RGCN) [10] digunakan untuk mengenal pasti perhubungan kelebihan yang berbeza dengan cekap untuk ramalan label argumen. Selain itu, kami melaksanakan rangka kerja meta-pembelajaran, model-agnostik meta-pembelajaran (MAML), yang terdiri daripada gelung dalam dan luar. Dalam gelung dalaman, setiap topik mengekalkan GNN khusus topik yang dilatih menggunakan data daripada topik tertentu itu. Dalam gelung luar, pelajar meta yang mengemas kini parameternya dengan mempertimbangkan arah kemas kini semua model GNN khusus topik daripada gelung dalam. Akhir sekali, kami memperkenalkan ujian Weisfeiler-Lehman (PWL) berasaskan corak untuk memastikan sama ada dua graf berkongsi corak yang sama dan menganalisis kerumitan pengiraan kaedah kami yang dicadangkan. Akhir sekali, kami menilai kaedah kami pada dua set data perbincangan merentas topik. Keputusan eksperimen dengan jelas menunjukkan bahawa kaedah cadangan kami dengan ketara mengatasi kaedah GNN tanpa corak tradisional.

2. Kerja Berkaitan

2.1 Meta-Pembelajaran untuk GNN

Rangkaian konvolusi graf (GCN), sebagai model GNN yang menonjol, telah menunjukkan keupayaan yang luar biasa dalam tugas GNN klasik seperti pengelasan nod dan ramalan pautan. Relational-GCN (RGCN) [10] memperluaskan lagi keupayaan GCN untuk menampung perhubungan berbilang pautan. Ia menggabungkan maklumat jenis pautan ke dalam lapisan lilitan menggunakan pemberat, dengan berkesan menangani data grafik yang mempunyai hubungan heterogen.

Banyak penyelidikan telah dijalankan untuk menangani masalah generalisasi yang wujud dalam model GNN dengan menggunakan teknik meta-pembelajaran. Sebagai contoh, Meta-GNN [6] berkesan mengendalikan masalah pengelasan nod merentas julat graf. Ia melihat proses pembelajaran pada setiap graf sebagai tugas yang berasingan, dengan setiap graf sepadan dengan model GNN yang berbeza. Mengikuti pendekatan model-agnostik meta-pembelajaran (MAML) untuk meta-pembelajaran graf, Meta-GNN menggabungkan arah kemas kini semua graf dalam meta-pembelajarnya. Begitu juga, G-META [7] menangani isu kebolehskalaan dalam model GNN, terutamanya apabila graf terlalu luas untuk dimasukkan ke dalam GNN sepenuhnya. Sebaliknya, ia menggunakan subgraf untuk meta-pembelajaran. Walau bagaimanapun, model GNN berasaskan meta-pembelajaran ini sering gagal untuk mempertimbangkan ciri khusus struktur argumentasi, mengakibatkan kecekapan berkurangan apabila dilaksanakan dalam tugas AM.

2.2 Perlombongan Hujah (AM)

Bidang perlombongan argumentasi (AM) memfokuskan pada pengekstrakan automatik hujah berstruktur daripada dokumen teks tidak berstruktur [4], dengan kaedah berasaskan pembelajaran mendapat daya tarikan yang ketara dalam beberapa tahun kebelakangan ini. Sebagai contoh, Stab et al. menggunakan kaedah mesin vektor sokongan untuk menjalankan tugas klasifikasi hujah menggunakan set data esei persuasif. Mereka mengklasifikasikan hujah kepada salah satu daripada tiga jenis: Tuntutan Utama, Tuntutan, dan Premis [11]. Begitu juga, Suzuki et al. [12] menyiasat tugas klasifikasi hujah pada set data esei persuasif menggunakan struktur Sistem Maklumat Berasaskan Isu (IBIS), pendekatan berasaskan argumentasi tradisional untuk menangani masalah yang kompleks [13]. Dalam IBIS, terdapat empat jenis hujah: Topik, Isu, Idea, Kebaikan dan Keburukan. Mereka menggunakan rangkaian perhatian graf (GAT) untuk mencapai ketepatan yang tinggi. Walau bagaimanapun, kajian ini tertumpu terutamanya pada data esei persuasif, menghadap data perbincangan.

Selain klasifikasi hujah, model berasaskan GNN boleh digunakan dengan berkesan pada tugas AM yang lain. Sebagai contoh, Kuhlmann et al. [14] bekerja pada tugasan semantik argumentasi abstrak, yang melibatkan mencari pemetaan yang menerima rangka kerja argumentasi abstrak sebagai input dan mengeluarkan label binari yang mewakili kebolehterimaan semua hujah di bawah semantik tertentu. Mereka menggunakan pengelas berasaskan GCN untuk menganggarkan penerimaan di bawah semantik pilihan dengan ketepatan kelas purata kira-kira 0.61. Selepas itu, Craandijk et al. [15] mencadangkan algoritma pembelajaran berasaskan GCN berulang untuk tugas ramalan yang mencapai ketepatan yang lebih tinggi. Walau bagaimanapun, algoritma ini tertumpu terutamanya pada tugas peringkat graf, yang bertujuan untuk meramalkan sama ada graf adalah benar atau palsu dan kerumitan pengiraan sepadan dengan \(\mathcal{O}(1)\). Sebaliknya, kerja kami memfokuskan pada meramalkan label setiap hujah, sepadan dengan kerumitan pengiraan bagi \(\mathcal{O}(|V|)\), yang jauh lebih rumit.

Terdapat juga beberapa kaedah GNN berasaskan corak. [16] menyelidiki perkembangan isirong pokok yang menekankan substruktur biasa, atau serpihan. Semasa mereka memperkenalkan seni bina GNN yang baru, tumpuan mereka bukan pada isu generalisasi menyeluruh yang wujud kepada GNN. Dalam kes [17], penyelidikan mereka mencadangkan konsep laluan meta yang bertujuan untuk merangkum idea abstrak yang lebih luas. Mereka memperkenalkan rangkaian neural graf heterogen yang dipanggil MeGnn. Walau bagaimanapun, objektif utama mereka ialah pengoptimuman rangkaian saraf graf heterogen, yang merupakan perlepasan daripada tumpuan utama kami pada graf homogen. Akhir sekali, [18] mengorak langkah dalam menjana model GNN yang memenuhi subkumpulan dan bukannya nod individu. Namun, kerja mereka tidak menyelidiki cabaran generalisasi GNN, khususnya, mereka tidak meneroka bidang seperti pembelajaran sifar dan satu pukulan, yang penting dalam penyelidikan kami.

3. Masalah

Dalam bahagian ini, kami menyatakan masalah generalisasi (tugas pembelajaran meta-graf) klasifikasi hujah. Pertama, kita ingat takrif rangka kerja penghujahan abstrak Dung seperti berikut [19].

Definisi 1. Kerangka argumentasi abstrak \((AF)\) adalah sepasang \(\mathcal{G}^i=<V^i,E^i>\) di mana \(i\) ialah indeks bagi \(AF\), \(V^i=\{v^i_1, v^i_2, \ldots,v^i_{|V^i|} \}\) ialah set hujah (terhingga) dan \(E^i \subseteq V^i \times V^i\) ialah hubungan serangan. Pasangan itu \((v^i_j,v^i_k) \in E^i\) bermakna \(v^i_j\) serangan \(v^i_k\). Satu set \(V_s^i \subseteq V^i\) serangan \(v^i_k\) sekiranya terdapat \(v^i_j \in V_s^i\), seperti itu \((v^i_j, v^i_k) \in V^i\). Satu hujah \(v^i_j \in V^i\) dipertahankan oleh \(V_s^i \subseteq V^i\) iff, untuk setiap \(v^i_j \in V^i\) seperti itu \((v^i_k, v^i_j) \in E^i, V_s^i\) serangan \(v^i_k\).

Walaupun hanya hubungan serangan yang dipertimbangkan dalam AF Dung, jenis hubungan boleh dilanjutkan lagi. Selain itu, setiap hujah diberikan label dan kami nyatakan \(L^i\) sebagai satu set semua label dalam \(\mathcal{G}^i\), iaitu, \(lab^i_j\in L^i\). Selain itu, kami mentakrifkan fungsi \(\mathrm{Lab}^i:V^i\rightarrow L^i\) untuk mengenal pasti label bagi setiap nod, iaitu, \(\mathrm{Lab}^i(v^i_j)=lab^i_j\).

Set Graf Kami menganggap setiap AF \(\mathcal{G}^i=<V^i, E^i>\) sebagai graf terarah. Bagi tepi \((v^i_j, v^i_k)\), \(v^i_j\) dipanggil nod sumber dan \(v^i_k\) dipanggil nod sasaran. Kami menganggap ada satu set \(\mathcal{\mathbf{G}}=\{ \mathcal{G}^1 ,\ldots, \mathcal{G}^{|\mathbf{G}|} \}\) termasuk berbilang graf. Dalam tugas pembelajaran meta-graf klasifikasi hujah, \(\mathcal{\mathbf{G}}\) dibahagikan kepada set kereta api \(\mathcal{\mathbf{G}}^{train}\) dan set ujian \(\mathcal{\mathbf{G}}^{test}\), iaitu, \(\mathcal{\mathbf{G}}=\mathcal{\mathbf{G}}^{train} \cup\mathcal{\mathbf{G}}^{test}\), dan juga setiap tugas \(\mathcal{G}^i\) boleh dibahagikan kepada set sokongan dan set pertanyaan seperti berikut.

\[\begin{equation*} \begin{split} \mathcal{G}^i_{sup}=<V^i_{sup}, E^i_{sup}> \\ \mathcal{G}^i_{que}=<V^i_{que}, E^i_{que}> \end{split} \tag{1} \end{equation*}\]

Ambil klasifikasi hujah sebagai contoh yang ditunjukkan dalam Rajah 1, nod dengan label ialah set sokongan yang digunakan untuk latihan dan nod lain tanpa label ialah set pertanyaan yang digunakan untuk ujian.

Rajah 1  Contoh tugas klasifikasi hujah meta.

Berdasarkan ini, matlamatnya adalah untuk mencari model Meta-GNN yang dilatih \(\mathcal{\mathbf{G}}^{train}\) yang dijangka berprestasi baik pada set pertanyaan \(\{ \mathcal{G}^i_{que} |\mathcal{G}^i_{que}\in \mathcal{ \mathbf{G}}^{test} \}\) selepas latihan beberapa langkah pada set sokongan \(\{ \mathcal{G}^i_{sup} | \mathcal{G}^i_{sup}\in\mathcal{\mathbf{G}}^{test} \}\) daripada set ujian \(\mathbf{G}^{test}\).

Khususnya, dalam tugas klasifikasi hujah, diberikan graf \(\mathcal{G}^i=<V^i,E^i>\) tanpa maklumat label, matlamatnya adalah untuk meramalkan setiap label nod. Ia bermaksud untuk mencari fungsi anggaran \(\hat{Lab}\) of \(Lab\) yang mengeluarkan label setiap nod dengan tepat, iaitu, \(\hat{Lab}(v^i_j | \theta)=lab^i_j\), dan tujuannya adalah untuk meminimumkan kerugian berikut yang ditakrifkan oleh

\[\begin{align} & loss(\mathbf{G}^{test} ) \nonumber\\ & =\sum_{\mathcal{G}^i_{que}\in \mathcal{\mathbf{G}}^{test} }\sum_{ v^i_j \in \mathcal{G}^i_{que} } entropy( \hat{Lab}(v^i_j | \theta)-lab^i_j) \tag{2} \end{align}\]

Bagi tugasan meta-pembelajaran, kami menganggap tiga tugas klasiknya:

  • Pembelajaran beberapa pukulan Ia membahagikan setiap graf dalam set ujian kepada set sokongan dan set pertanyaan, ia menjadikan model meta mempelajari beberapa zaman pada set sokongan dan menguji set pertanyaan.
  • Pembelajaran satu pukulan Ia serupa dengan pembelajaran beberapa pukulan selain itu hanya satu zaman dilatih pada set sokongan dan bukannya beberapa pukulan.
  • Pembelajaran tembakan sifar Ia mengambil keseluruhan set graf sebagai set pertanyaan dan menguji model terlatih tanpa latihan.

4. Algoritma

Dalam bahagian ini, kami memperkenalkan kaedah meta-GNN berasaskan corak dua peringkat. Pada peringkat 1, kami menumpukan pada mempelajari perwakilan corak peringkat tinggi untuk menangkap pengetahuan corak secara berkesan dalam struktur penghujahan, diikuti dengan meramalkan jenis kelebihan. Ia kemudiannya menggunakan rangka kerja meta-pembelajaran dalam peringkat kedua, yang direka untuk melatih pelajar meta berdasarkan jenis kelebihan yang diramalkan.

4.1 Peringkat 1: Perwakilan Corak

Dalam perlombongan argumentasi, corak struktur argumentasi biasanya dipratakrifkan. Sebagai contoh, dalam IBIS nod dengan \(Issue\) label hanya boleh dipautkan dengan nod dengan label \(Idea\). Kemudian, menggunakan pengetahuan corak sedemikian akan memberi manfaat kepada tugas AM. Sebelum mentakrifkan corak struktur argumentasi, kami terlebih dahulu mentakrifkan label pautan meta seperti berikut, di mana satu nod dengan label jenis tertentu harus dipautkan dengan beberapa nod dengan label jenis khusus lain.

2 Definisi (Label Pautan Meta). kami mentakrifkan label pautan \(<v_j, v_k>\) ditentukan oleh label nod hujungnya \(<Lab(v_j), Lab(v_k)>\)

Berdasarkan takrifan label pautan meta, corak takrifan diberikan oleh

3 Definisi (corak). Corak boleh ditakrifkan seperti berikut. \(\mathcal{AS}=< L, \mathcal{E}^L >\) di mana \(L\) ialah set label dan \(\mathcal{E}^L\) menandakan set label pautan meta \(<lab^j, lab^k>\) bersama \(lab^j, lab^k \in L\)

Sebagai contoh IBIS, \(L=\{ Topic, Issue, Idea, Pros, Cons \}\) and \(\mathcal{E}^L \!=\! \{ (Topic, Issue), (Issue, Idea), (Idea, Pros), (Idea, Cons) \}\)

Algoritma Perwakilan Corak Memandangkan kita telah mentakrifkan cara untuk mewakili corak struktur argumentasi, algoritma yang sepadan dinyatakan seperti berikut. Idea kami adalah untuk mengemas kini label setiap nod dengan label nod kejiranan one-hop secara berulang. Kemudian, melalui \(k\)-iteration mengemas kini, setiap nod akan menyertakan maklumat nod kejiranan k-hopnya, yang merupakan perwakilan unik graf.

Secara khusus, algoritma perwakilan corak ditakrifkan pada label pautan meta di mana setiap label diberikan nod yang sepadan dan nod sumber dan nod sasarannya diberikan. Kemudian, label nod daripada nod sumber dan nod sasaran dikemas kini secara berasingan, mengikut algoritma berikut.

  • Kemas kini berulang label Diberi struktur penghujahan \(\mathcal{AS}=< L, \mathcal{E}^L >\), tetapkan nod \(v^l\) untuk setiap label \(l\in L\) dan set nod ditandakan sebagai \(V^L\). Kemudian, pengemaskinian label bermula dari lelaran 0, iaitu, \(Lab(v^l)^{ite}|_{ite=0}=\{l^0\}\), di mana setiap nod \(v^l\) menerima label nod sumber dan label nod sasaran secara berasingan, dengan nombor lelaran \(ite\) pada setiap lelaran. Untuk semua nod \(v^l\in V^L\), setiap label dikemas kini seperti berikut.
    \[\begin{equation*} \begin{split} &Lab^{Nei}(v^l)^{ite+1}= Lab^{Nei}(v^l)^{ite} \\ & \bigcup_{v^j\in Nei(v^l)} \Big( Lab^{Nei}(v^l)^{ite} \cap Lab^{Nei}(v^j)^{ite} \Big) \end{split} \tag{3} \end{equation*}\]
    di mana \(Nei(v^l)\) boleh \(Sou(v^l)\), set semua nod sumber bagi \(v^l\), Atau \(Tar(v^l)\), set semua nod sasaran bagi \(v^l\). Sejak \(Lab^{Nei}(v^l)^{ite}\) ialah satu set, ia hanya menambah label yang tidak wujud pada masa ini semasa setiap lelaran.
  • Penamatan kemas kini Kemas kini label nod di atas akan ditamatkan sehingga set semua label nod tidak berubah selepas lelaran, iaitu,
    \[\begin{equation*} Lab^{Nei}(v^l)^{ite}=Lab^{Nei}(v^l)^{ite+1}, \qquad \forall v^l\in V^L \tag{4} \end{equation*}\]

Kami menandakan label nod \(v^l\) pada lelaran akhir sebagai label termampat \(Lab^{Nei}(v^l)^{fin}\), iaitu, \(Lab^{Nei}(v^l)^{ite}|_{ite=fin}=Lab^{Nei}(v^l)^{fin}\) and \(L^{\mathcal{AS}}=\{ L(v^l)=\{ Lab^{Sou}(v^l)^{fin}, Lab^{Tar}(v^l)^{fin} \} | v^l \in V^L\}\) di mana elemen pertama ialah set label termampat yang dikemas kini oleh nod sumber, dan elemen kedua ialah set label termampat daripada nod sasaran. Seperti yang ditunjukkan dalam Rajah 2, struktur mempunyai nod \({a, b, c, d, e}\) dan tepi \({(a,b),(b,c),(c,d),(c,e)}\). Selepas mengikuti kemas kini, label termampat diberikan oleh \(L(a)=\{ \{ a \} ,\{ ab^1c^2d^3e^3 \}\}\), \(L(b)=\{\{ a^1b \}, \{ bc^1d^2e^2 \}\}\), \(L(c)=\{ \{ a^2b^1c \}, \{ cd^1e^1 \}\}\), \(L(d)=\{ \{ a^3b^2c^1d \}, \{ d \} \}\), \(L(e)=\{\{ a^3b^2c^1e \}, \{ e \} \}\). Menurut label termampat akhir, terdapat empat jenis pautan, iaitu, \(L^{\mathcal{AS}}\)=

  • \((\{ \{ a \} ,\{ ab^1c^2d^3e^3 \}\}, \{\{ a^1b \}, \{ bc^1d^2e^2 \}\})\),
  • \((\{\{ a^1b \}, \{ bc^1d^2e^2 \}\}, \{ \{ a^2b^1c \}, \{ cd^1e^1 \} \} )\),
  • \((\{ \{ a^2b^1c \}, \{ cd^1e^1 \} \}, \{ \{ a^3b^2c^1d \}, \{ d \} \})\)
  • \((\{ \{ a^2b^1c \}, \{ cd^1e^1 \} \}, \{\{ a^3b^2c^1e \}, \{ e \} \} )\).

Rajah 2  Contoh perwakilan corak.

Perwakilan Corak tanpa Algoritma Label Kemudian, kami menyatakan cara meramal jenis tepi dalam graf tanpa maklumat label nod.

  • Kenal pasti nod akar Diberi graf tanpa \(\mathcal{G}= <V, E>\), mengenal pasti nod tanpa sebarang nod sasaran sebagai nod akar.
  • Susun mengikut struktur pokok Susun graf kepada struktur pokok mengikut jarak (\(n\)-hop) ke nod akar. Nod akar \(k\)-hop jiran nod ditetapkan pada \(k\)-lapisan ke-. Kemudian, nod diberikan label yang sama jika ia berada pada lapisan yang sama.
  • Mengemaskini Mengikuti algoritma perwakilan corak untuk mengemas kini semua label nod untuk mendapatkan label akhir \(L^{\mathcal{G}}=\{ Lab(v)^{fin} | v \in V \}\).

Berdasarkan label nod termampat di atas, kami mempunyai tiga jenis pautan dalam Rajah 3, iaitu, \(L^{\mathcal{G}}\)=

  • \((\{ \{1\},\{12^13^24^3\}\}, \{ \{1^12\},\{23^14^2\}\})\)
  • \(( \{ \{1^12\},\{23^14^2\}\}, \{ \{1^22^13 \}, \{34^1 \}\})\)
  • \(( \{ \{1^22^13 \}, \{34^1 \}\}, \{ \{1^32^23^14 \}, \{4 \}\})\).

Rajah 3  Contoh perwakilan corak tanpa maklumat label.

Memandangkan diketahui bahawa graf argumentasi ini mengikut corak dalam Rajah 2, matlamatnya ialah untuk mengenal pasti fungsi \(f_{inj}:L^{\mathcal{G}}\rightarrow L^{\mathcal{AS}}\) itu untuk memetakan label dalam corak untuk semua pautan seperti berikut.

\[\begin{equation*} \text{$min$}\quad \sum_{ l \in L^{\mathcal{G}} } \mathcal{I}\big( f_{inj}(l) - L^{\mathcal{AS}}(l) \big) \tag{5} \end{equation*}\]

di mana \(\mathcal{I}=n\) and \(n\) ialah bilangan elemen dengan perwakilan berbeza bagi tepi. Penjumlahan ralat dikira berdasarkan "\(l \in L^{\mathcal{G}}\)"Bukan"\(l \in L^{\mathcal{AS}}\)”, itu kerana sesetengah graf dijana berdasarkan beberapa corak tetapi mungkin membocorkan beberapa nod label. Adapun hubungan yang tidak pasti seperti \((1^22^13, 1^32^23^14)\) boleh peta ke \((a^2b^1c, a^3b^2c^1d)\) or \((a^2b^1c, a^3b^2c^1e)\), terdapat dua kaedah untuk mengatasinya. Yang pertama ialah memilih salah satu jenis secara deterministik. Yang kedua ialah memberikan kebarangkalian bagi setiap jenis pautan. Khususnya, meramalkan jenis tepi tertentu menjadi mencabar apabila terdapat topologi simetri dalam corak. Sebagai contoh, dengan topologi simetri, kebarangkalian untuk meramal setiap jenis tepi dalam topologi itu turun kepada 50%. Ketepatan semakin berkurangan apabila bilangan topologi simetri bertambah. Dalam kertas ini, kami menggunakan kaedah jenis pertama.

4.2 Peringkat 2: RGCN Berasaskan Pembelajaran Meta

Relational-GCN (RGCN) Memandangkan jenis pautan telah diramalkan, kami mempertimbangkan untuk menggunakan RGCN, model GNN yang boleh mengatasi perhubungan kelebihan heterolog dengan baik, untuk menangkap ciri nod untuk memproses klasifikasi hujah. Secara khusus, diberi graf \(\mathcal{G}=<V, E>\), setiap nod \(v_i\) boleh dibenamkan pada vektor berangka seperti Word2Vec, pembenaman jujukan Universal (USE) atau perwakilan pengekod dua arah daripada transformer (BERT). Kami guna \(v_{i,e}\in\mathbb{R}^d\) untuk menandakan pembenaman setiap nod di mana \(d\) ialah dimensi benam. Sejajar dengan itu, kita boleh membina matriks ciri \(X\in\mathbb{R}^{|V|\times d}\) di mana setiap baris mewakili satu pembenaman nod. kita menandakan \(h^l_i\) sebagai vektor benam nod \(v_i\in V\) pada lapisan \(l\) daripada RGCN. Pada lapisan pertama, kami menandakannya sebagai hasil pembenaman USE, iaitu, \(h^0_i=v_{i,e}=USE(v_i)\). Kami menganggap semua jenis kelebihan (hubungan) \(r\in L^{AS}\) berdasarkan ramalan berasaskan corak. Kemudian setiap nod akan menggunakan ciri \(\{ h^l_j | j \in Sou^r(i)\) nod sumbernya untuk mengemas kini cirinya pada setiap lapisan.

\[\begin{equation*} h_i^{(k+1)}=\sigma\left(\sum_{r \in L^{AS}} \sum_{j \in Sou^r(i)} \frac{1}{c_{i, r}} W_r^{(k)} h_j^{(k)}+W_0^{(k)} h_i^{(k)}\right) \tag{6} \end{equation*}\]

Dimanakah \(\frac{1}{c_{i, r}}\) menunjukkan berat hubungan \(r\) untuk nod \(v_i\); \(W_r^k\) and \(W_0^l\) ialah matriks berat untuk perhubungan \(r\) dan dirinya pada lapisan \(k\). Ini bermakna setiap lapisan mempunyai \(|L^{AS}|+1\) matriks parameter dan sepenuhnya \(K*(|L^{AS}|+1)\) matriks diperlukan untuk dilatih dalam RGCN dengan \(K\) lapisan. Kami membiarkan lapisan terakhir \(h^K\) lulus lapisan pelapik untuk mengeluarkan kebarangkalian setiap label untuk semua nod, iaitu, \(h^K\in \mathbb{R}^{ |V| \times |Lab|}\).

Meta-pembelajaran Bagi melatih model RGCN, kami menggunakan MAML untuk melatihnya, yang bertujuan untuk mempelajari model meta dengan set parameter awal yang boleh menyesuaikan diri dengan tugas baharu dengan cekap. Ia terdiri daripada dua gelung di mana setiap tugasan mempunyai model tertentu dan ia akan dikemas kini dalam gelung dalaman berdasarkan set sokongannya sendiri. Di dalam gelung dalam, kami mencuba satu kumpulan \(\mathcal{B}\) daripada set latihan \(\mathbf{G}^{train}\), iaitu, \(\mathcal{B}=\{ \mathcal{G}^b|\mathcal{G}^b\in \mathcal{\mathbf{G}}^{train} \}\) dan kemas kini parameter untuk setiap model menggunakan set sokongan setiap graf \(\mathcal{G}^b_{sup}\) dalam kumpulan.

\[\begin{equation*} \theta_b \leftarrow\theta_b-\alpha \nabla_\theta loss_{G_b}\left(f_\theta\right) \tag{7} \end{equation*}\]

Dimanakah \(loss\) fungsi ditakrifkan dalam Pers. (2). Kemudian menguji parameter yang dikemas kini pada set pertanyaan dan pelajar meta akan mempertimbangkan semua arahan pengemaskinian parameter set pertanyaan untuk dikemas kini. Ia mempunyai kebolehan generalisasi yang baik untuk pelbagai tugas penurunan kecerunan. Di dalam gelung luar daripada meta-GNN, kami menggunakan GNN dengan parameter yang dikemas kini untuk melatihnya lebih lanjut mengenai set pertanyaan \(\mathcal{G}^i_{que}\). Kemudian pelajar meta mengemas kini dengan mempertimbangkan penjumlahan semua arah pengemaskinian.

\[\begin{equation*} \theta^{meta} \leftarrow \theta^{meta}-\beta \nabla_\theta \sum_{G_i \sim \mathbf{G}^{train} } loss_{G_i}\left(f_{\theta_i^{\prime}}\right) \tag{8} \end{equation*}\]

4.3 Analisis

Dalam bahagian ini, kami menganalisis beberapa sifat RGCN berasaskan corak. Ujian Weisfeiler-Lehman (WL) ialah kaedah klasik untuk menilai sama ada dua graf adalah isomorfik. Ia mengikut langkah-langkah berikut. \(Aggregation: \quad L_i=\{ lab(v_j) | v_j\in nei(v_i) \}_{mul}\), setiap nod mempunyai label dan kemudian setiap nod akan mengagregatkan label kejiranannya sebagai multiset yang dilambangkan sebagai \(\{ \}_{mul}\). Kemudian ia memerlukan mencari fungsi hash untuk ditukar \(L_i\) kepada label "mampat" baharu, \(Combination: \quad L_i[ite+1]\leftarrow hash(L_i[ite])\) di mana \(hash\) ialah pemetaan fungsi injektif \(L_i[ite]\) kepada \(L_i[ite+1]\). Proses pengagregatan dan gabungan di atas akan diulang sehingga label termampat dua graf tidak berubah, iaitu, \(L_i[ite]=L_i[ite+1]\). Sebaik sahaja kedua-dua rajah semuanya mempunyai label yang sama, kemungkinan kedua-dua graf menjadi isomorfik adalah tinggi. Berdasarkan ujian WL, kami mentakrifkan ujian WL berasaskan corak (ujian PWL) untuk menilai sama ada dua graf berkongsi corak yang sama yang ditakrifkan dalam Definisi 2.

Ujian WL berasaskan corak (ujian PWL) Pengagregatan: Kami menganggap setiap nod mempunyai label dan kemudian setiap nod akan mengagregatkan label kejiranannya sebagai satu set.

\[\begin{equation*} Aggregation: \quad L_i=\{ lab(v_j) | v_j\in nei(v_i) \} \tag{9} \end{equation*}\]

di mana tidak terdapat label berulang dalam \(L_i\). Ini boleh dianggap sebagai jenis label yang wujud dalam nod jiran.

Kemudian kami mencari fungsi cincang untuk ditukar \(L_i\) kepada label "mampat" baharu.

\[\begin{equation*} Combination: \quad L_i[ite+1]\leftarrow hash(L_i[ite]) \tag{10} \end{equation*}\]

Oleh itu, kita dapat melihat perbezaan utama antara ujian WL ialah mengagregatkan jenis label dan bukannya label nod. Berbanding dengan ujian WL yang berdasarkan tahap tepi (setiap tepi ditentukan oleh nod hujungnya), ujian PWL adalah berdasarkan tahap tepi meta (setiap tepi meta ditentukan oleh label nod hujungnya). Oleh itu kita boleh mempunyai teorem berikut.

Teorem 1. Sebaik sahaja dua graf argumentasi melepasi ujian PWL, ini bermakna ia berkongsi corak yang sama dan model meta yang dilatih oleh RGCN berasaskan corak boleh digunakan pada graf argumentasi.

Juga, kami menganalisis kerumitan pengiraan kaedah yang dicadangkan kami.

Teorem 2. Kerumitan algoritma perwakilan corak ialah \(\mathcal{O}\big(|V|(D+1)\big)\).

Bukti. Diberi graf dengan \(|V|\) nod, semua label nod akan dikemas kini sekali pada satu lelaran. Jumlah nombor lelaran bergantung pada laluan terpanjang dalam graf, yang akan menjadi nod dengan jarak terpanjang (nombor hop) dari nod akar. Oleh itu, jika kita menyatakan jarak terpanjang \(D\) hop, algoritma perwakilan corak akan berhenti di \((D+1)\)-lelaran ke-, yang sepadan dengan kerumitan pengiraan bagi \(|V|(D+1)\).\(\tag*{◻}\)

5. Penilaian

5.1 Penetapan Penilaian

Dalam kertas ini, kami menggunakan IBIS sebagai contoh untuk menjalankan eksperimen. Tidak seperti struktur penghujahan Dung, pelbagai jenis hubungan wujud seperti hubungan daripada \(Idea\) 'selesaikan' \(Issue\). Kami melaksanakan tugas pembelajaran graf meta yang dinyatakan dalam bahagian Masalah pada dua set data berikut.

  • Set Data Perbincangan Bahasa Inggeris Strict-IBIS Set data dikumpul oleh sepuluh perbualan daripada 5 penutur bahasa Inggeris negatif pada tahun 2022 [20]. Setiap perbualan mempunyai topik dan setiap hujah adalah milik salah satu label IBIS. Setiap perbualan hampir mengandungi 250 hujah.
  • Set Data Perbincangan Bahasa Inggeris Strict-IBIS dengan Hujah Terpencil Set data ini dikumpul oleh sepuluh perbualan daripada 11 penutur bahasa Inggeris negatif pada tahun 2021. Setiap perbualan hampir mengandungi 200 hujah. Walaupun setiap graf hujah mengikut struktur IBIS, sesetengah hujah tidak mempunyai pautan sepadan yang dipanggil hujah terpencil.

Dalam dua set data di atas, setiap perbualan berasaskan topik dianggap sebagai graf hujah dan kemudian dibahagikan kepada set data sokongan dan set data pertanyaan mengikut nisbah \(4:1\). Kami menggunakan pengesahan silang di mana setiap graf \(i\) boleh sebagai graf ujian dan yang lain \(-i\) graf adalah sebagai set data kereta api. Sejajar dengan itu, kami menyenaraikan keputusan ujian pada setiap graf dan membandingkan purata ketepatannya ke atas sepuluh graf. Kami kemudiannya membandingkan kaedah cadangan kami dengan dua kaedah GNN bebas corak klasik: GCN dan Meta-GCN, yang digambarkan seperti berikut.

  • GCN [21] kaedah terdiri daripada satu lapisan input dengan 1024 saraf, 6 lapisan konvolusi tersembunyi dengan 512 saraf dan lapisan keluaran dengan 5 saraf. Di bawah pengesahan silang, setiap graf ujian sepadan dengan satu model GCN yang dilatih dan dinilai secara bebas. Secara khusus, setiap graf dilatih pada set sokongan setiap graf dan diuji pada set pertanyaan sebagai hasil akhir.
  • Meta-GCN [6] Kami menggunakan GCN sebagai model GNN dalam Meta-GNN dan MAML digunakan sebagai rangka kerja meta-pembelajaran. Bagi setiap graf ujian \(\mathcal{G}^i\), kami menyimpan semua graf selain graf \(\mathcal{G}^i\) sebagai set data latihan, iaitu, \(\mathcal{G}^{-i}=\mathcal{G}-\mathcal{G}^i\). Selepas latihan, kami menggunakan Meta-GCN untuk menguji graf \(\mathcal{G}^i\).
5.2 Analisis Keputusan

Dalam fasa latihan, kami menjalankan semua kaedah untuk 1000 zaman. Keputusan tugasan meta-pembelajaran pada dua set data diperincikan dalam Jadual 1 dan 2. Berkenaan dengan hasil perbandingan tugas pembelajaran sifar pukulan yang ditunjukkan dalam Jadual 1 (a) dan 2 (a), kedua-dua meta-GCN dan GCN berprestasi rendah. Sebabnya ialah meta-GCN, yang sememangnya berpotensi untuk menyesuaikan diri dengan cepat kepada tugas baharu, memerlukan latihan mengenai set data sokongan. Walau bagaimanapun, dalam pembelajaran sifar pukulan, model meta digunakan secara langsung pada set pertanyaan tanpa sebarang latihan awal pada set sokongan.

Jadual 1  Bandingkan prestasi GCN dan meta-GCN pada set data perbincangan bahasa inggeris IBIS

Jadual 2  Bandingkan prestasi GCN dan meta-GCN pada set data perbincangan bahasa inggeris IBIS dengan hujah terpencil.

Seperti yang dilihat dalam Jadual 1 (b) dan 2 (b), meta-GCN berprestasi lebih baik daripada GCN walaupun dengan latihan hanya untuk 1 zaman. Kelebihan ini berkembang dengan bilangan zaman pembelajaran. Seperti yang ditunjukkan dalam Jadual 1 (c)(d) dan 2 (c)(d), kita melihat bahawa meta-GCN menunjukkan peningkatan sekitar 30% berbanding GCN, menunjukkan bahawa meta-pembelajaran boleh mengekalkan keupayaan generalisasi yang baik untuk penghujahan baharu graf.

Walau bagaimanapun, pembelajaran berasaskan struktur kami yang dicadangkan berfungsi dengan baik merentas semua jenis tugasan graf meta-pembelajaran. Ia juga mencapai ketepatan purata lebih 60% pada tugas pembelajaran sifar pukulan. Berbanding dengan meta-GCN, ini menunjukkan bahawa pengetahuan berasaskan corak boleh menyediakan model GNN dengan prestasi awal yang kukuh tanpa sebarang latihan, menunjukkan keupayaan generalisasi yang baik merentas graf yang berbeza. Keupayaan generalisasi ini cenderung bertambah baik seiring dengan zaman latihan. Seperti yang ditunjukkan dalam Jadual 1 (c)(d) dan 2 (c)(d), ia mencapai ketepatan yang tinggi selepas latihan untuk hanya 10 dan 100 zaman.

Secara khusus, kami membentangkan beberapa kes sampel untuk menjelaskan eksperimen. Rajah 4 menunjukkan hasil pembelajaran satu pukulan untuk topik 1 dalam Jadual 1. Kedua-dua GCN dan Meta-GCN meramalkan label semua nod sebagai "Isu," yang menghasilkan ketepatan 0.31. Sebaliknya, kaedah cadangan kami mencapai ketepatan 0.58 selepas satu tempoh latihan. Terutamanya, nod yang terletak di tengah-tengah diramalkan dengan ketepatan yang tinggi, sejajar dengan label Idea Isu Topik. Walau bagaimanapun, ketepatan ramalan untuk Keburukan dan Kebaikan adalah lebih rendah. Ini dikaitkan dengan peringkat berasaskan corak di mana Keburukan dan Kebaikan mempamerkan topologi simetri, merumitkan perbezaan jenis tepi berbanding dengan label tanpa topologi simetri. Selain itu, kami mempamerkan hasil pembelajaran beberapa pukulan (berdasarkan 10 pukulan) dalam Rajah 5. Walaupun ketepatan kaedah yang dicadangkan kami meningkat kepada 0.79, hasil daripada GCN dan Meta-GCN menunjukkan variasi yang minimum.

Rajah 4  Kajian kes topik 1 dalam Jadual 1 tentang tugasan pembelajaran satu pukulan.

Rajah 5  Kajian kes topik 1 dalam Jadual 1 tentang tugas pembelajaran beberapa pukulan (10epochs).

Memandangkan keputusan daripada Jadual 1 dan 2, kami mengira ketepatan purata ke atas sepuluh graf, seperti yang digambarkan dalam Rajah. 6 dan 7. Prestasi ketiga-tiga algoritma bertambah baik dengan bilangan zaman pembelajaran. Daripada keputusan tugasan pembelajaran sifar pukulan, kami mendapati bahawa kaedah yang dicadangkan kami mengekalkan ketepatan yang tinggi untuk penghujahan baharu, mempamerkan keupayaan generalisasi yang baik dan mencapai ketepatan 80% untuk tugasan pembelajaran beberapa pukulan pada kedua-dua set data.

Rajah 6  Perbandingan purata ketepatan: Keputusan pada Set Data Perbincangan Bahasa Inggeris IBIS.

Rajah 7  Perbandingan purata ketepatan: Keputusan pada Set Data Perbincangan Bahasa Inggeris IBIS dengan Argumen Terpencil.

6. Kesimpulan

Dalam makalah ini, kami menangani masalah generalisasi dalam masalah klasifikasi hujah. Tidak seperti kebanyakan kaedah GNN tanpa corak sedia ada, kami mencadangkan model meta GNN berasaskan corak yang boleh menjadikan model GNN terlatih cepat menyesuaikan diri dengan graf argumentasi baharu. Kami juga mencadangkan ujian WL berasaskan corak baharu untuk menilai sama ada dua graf berkongsi corak yang sama dan memproses analisis teori kaedah cadangan kami. Keputusan percubaan menunjukkan kelebihan hebat berbanding kaedah GNN berasaskan bebas corak. Berkenaan tetapan percubaan, kami menggunakan pengesahan silang untuk memintas masalah overfitting. Walaupun keputusan sedikit turun naik bergantung pada graf yang berbeza, perbezaannya tidak begitu besar. Daripada ini, kita boleh membuat kesimpulan bahawa masalah overfitting tidak berterusan dalam kaedah yang dicadangkan kami. Selain itu, kami menguji dua set data IBIS untuk mengesahkan kesimpulan ini.

Walaupun kami menggunakan data argumentasi dengan struktur IBIS sebagai contoh, RGCN berasaskan corak kami yang dicadangkan ialah kaedah umum yang boleh dilanjutkan kepada data hujah lain dengan struktur argumentasi yang telah ditetapkan. Dalam kerja akan datang, adalah penting untuk meneliti kebolehgunaan dan keteguhan kaedah cadangan kami merentas pelbagai struktur dan set data lain.

Penghargaan

Kerja ini disokong oleh Nombor Geran JST CREST JPMJCR20D1, Jepun dan Geran-in-Aid untuk Penyelidikan Saintifik (C) (23K11230, 2023-2026) daripada Persatuan Promosi Sains Jepun (JSPS).

Rujukan

[1] X. Hua and L. Wang, “Efficient argument structure extraction with transfer learning and active learning,” Findings of the Association for Computational Linguistics: ACL 2022, Dublin, Ireland, pp.423-437, Association for Computational Linguistics, May 2022.
CrossRef

[2] A. Peldszus and M. Stede, “From argument diagrams to argumentation mining in texts: A survey,” International Journal of Cognitive Informatics and Natural Intelligence (IJCINI), vol.7, no.1, pp.1-31, 2013.
CrossRef

[3] E. Cabrio and S. Villata, “Five years of argument mining: a data-driven analysis.,” IJCAI, pp.5427-5433, 2018.
CrossRef

[4] M. Lippi and P. Torroni, “Argumentation mining: State of the art and emerging trends,” ACM Transactions on Internet Technology (TOIT), vol.16, no.2, pp.1-25, 2016.
CrossRef

[5] P.W. Battaglia, J.B. Hamrick, V. Bapst, A. Sanchez-Gonzalez, V. Zambaldi, M. Malinowski, A. Tacchetti, D. Raposo, A. Santoro, R. Faulkner, et al., “Relational inductive biases, deep learning, and graph networks,” arXiv preprint arXiv:1806.01261, 2018.

[6] F. Zhou, C. Cao, K. Zhang, G. Trajcevski, T. Zhong, and J. Geng, “Meta-gnn: On few-shot node classification in graph meta-learning,” Proc. 28th ACM International Conference on Information and Knowledge Management, pp.2357-2360, 2019.
CrossRef

[7] K. Huang and M. Zitnik, “Graph meta learning via local subgraphs,” Advances in Neural Information Processing Systems, vol.33, pp.5862-5874, 2020.

[8] A. Sankar, X. Zhang, and K.C.-C. Chang, “Meta-gnn: Metagraph neural network for semi-supervised learning in attributed heterogeneous information networks,” Proc. 2019 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining, pp.137-144, 2019.
CrossRef

[9] T. Ito, S. Suzuki, N. Yamaguchi, T. Nishida, K. Hiraishi, and K. Yoshino, “D-agree: crowd discussion support system based on automated facilitation agent,” Proc. AAAI conference on artificial intelligence, vol.34, no.09, pp.13614-13615, 2020.
CrossRef

[10] M. Schlichtkrull, T.N. Kipf, P. Bloem, R.v.d. Berg, I. Titov, and M. Welling, “Modeling relational data with graph convolutional networks,” European semantic web conference, pp.593-607, Springer, 2018.
CrossRef

[11] C. Stab and I. Gurevych, “Parsing argumentation structures in persuasive essays,” Computational Linguistics, vol.43, no.3, pp.619-659, 2017.
CrossRef

[12] S. Suzuki, T. Ito, A. Moustafa, and R. Hadfi, “A node classification approach for dynamically extracting the structures of online discussions,” The 34th Annual Conference of the Japanese Society for Artificial Intelligence, vol.2G5-ES-3, no.02, pp.1-4, 2020.

[13] W. Kunz and H.W. Rittel, Issues as elements of information systems, Citeseer, 1970.

[14] I. Kuhlmann and M. Thimm, “Using graph convolutional networks for approximate reasoning with abstract argumentation frameworks: A feasibility study,” International Conference on Scalable Uncertainty Management, pp.24-37, Springer, 2019.

[15] D. Craandijk and F. Bex, “Deep learning for abstract argumentation semantics,” arXiv preprint arXiv:2007.07629, 2020.

[16] F. Ruggeri, M. Lippi, and P. Torroni, “Tree-constrained graph neural networks for argument mining,” arXiv preprint arXiv:2110.00124, 2021.

[17] Y. Chang, C. Chen, W. Hu, Z. Zheng, X. Zhou, and S. Chen, “Megnn: Meta-path extracted graph neural network for heterogeneous graph representation learning,” Knowledge-Based Systems, vol.235, p.107611, 2022.
CrossRef

[18] Z. Luo, J. Lian, H. Huang, H. Jin, and X. Xie, “Ada-gnn: Adapting to local patterns for improving graph neural networks,” Proc. Fifteenth ACM International Conference on Web Search and Data Mining, pp.638-647, 2022.
CrossRef

[19] P.M. Dung, “On the acceptability of arguments and its fundamental role in nonmonotonic reasoning, logic programming and n-person games,” Artificial intelligence, vol.77, no.2, pp.321-357, 1995.
CrossRef

[20] Y. Dong, S. Ding, J. Haqbeen, and T. Ito, “The significant factors that affect the accuracy on classifying english ibis datasets,” The 85th National Convention of IPSJ, March 2023.

[21] T.N. Kipf and M. Welling, “Semi-supervised classification with graph convolutional networks,” arXiv preprint arXiv:1609.02907, 2016.

Pengarang

Shiyao DING
  Kyoto University

is an assistant professor in Graduate School of Informatics from Kyoto University, Japan. He received the Master degree in engineering from Osaka University, Japan in September 2019 and the Ph.D. degree from Kyoto University, Japan in September 2022. His current research interests include reinforcement learning, graph neural networks, multiagent systems, argumentation mining and services computing.

Takayuki ITO
  Kyoto University

is a professor and head of Department of Social Informatics of Kyoto University. He received the Doctor of Engineering from the Nagoya Institute of Technology in 2000. He was a JSPS research fellow, an associate professor of JAIST, and a visiting scholar at USC/ISI, Harvard University, and MIT twice. He was a board member of IFAAMAS, the PCchair of AAMAS2013, PRIMA2009, GeneralChair of PRIMA2014, IEEE ICA2016, is the Local Arrangements Chair of IJCAI2020, and was a SPC/PC member in many top-level conferences (IJCAI, AAMAS, ECAI, AAAI, etc). He received the JSAI Contribution Award, the JSAI Achievement Award, the JSPS Prize, the Fundamental Research Award of JSSST, the Prize for Science and Technology of the Commendation for Science and Technology by the Minister of Education, Culture, Sports, Science, and Technology (MEXT), the Young Scientists' Prize of the Commendation for Science and Technology by the MEXT, the Nagao Special Research Award of IPSJ, the Best Paper Award of AAMAS2006, the 2005 Best Paper Award of JSSST, and the Super Creator Award of 2004 IPA Exploratory Software Creation Project. He was a JST PREST Researcher, and a principal investigator of the Japan Cabinet Funding Program for Next Generation World-Leading Researchers. He is currently principal investigator of his 2nd JST CREST project.

Kata kunci