Introduction to Graph Neural Networks

ยท
ยท Springer Nature
เด‡-เดฌเตเด•เตเด•เต
109
เดชเต‡เดœเตเด•เตพ
เดฑเต‡เดฑเตเดฑเดฟเด‚เด—เตเด•เดณเตเด‚ เดฑเดฟเดตเตเดฏเต‚เด•เดณเตเด‚ เดชเดฐเดฟเดถเต‹เดงเดฟเดšเตเดšเตเดฑเดชเตเดชเดฟเดšเตเดšเดคเดฒเตเดฒ ย เด•เต‚เดŸเตเดคเดฒเดฑเดฟเดฏเตเด•

เดˆ เด‡-เดฌเตเด•เตเด•เดฟเดจเต†เด•เตเด•เตเดฑเดฟเดšเตเดšเต

Graphs are useful data structures in complex real-life applications such as modeling physical systems, learning molecular fingerprints, controlling traffic networks, and recommending friends in social networks. However, these tasks require dealing with non-Euclidean graph data that contains rich relational information between elements and cannot be well handled by traditional deep learning models (e.g., convolutional neural networks (CNNs) or recurrent neural networks (RNNs)). Nodes in graphs usually contain useful feature information that cannot be well addressed in most unsupervised representation learning methods (e.g., network embedding methods). Graph neural networks (GNNs) are proposed to combine the feature information and the graph structure to learn better representations on graphs via feature propagation and aggregation. Due to its convincing performance and high interpretability, GNN has recently become a widely applied graph analysis tool. This book provides a comprehensive introduction to the basic concepts, models, and applications of graph neural networks. It starts with the introduction of the vanilla GNN model. Then several variants of the vanilla model are introduced such as graph convolutional networks, graph recurrent networks, graph attention networks, graph residual networks, and several general frameworks. Variants for different graph types and advanced training methods are also included. As for the applications of GNNs, the book categorizes them into structural, non-structural, and other scenarios, and then it introduces several typical models on solving these tasks. Finally, the closing chapters provide GNN open resources and the outlook of several future directions.

เดฐเดšเดฏเดฟเดคเดพเดตเดฟเดจเต† เด•เตเดฑเดฟเดšเตเดšเต

Zhiyuan Liu is an associate professor in the Department of Computer Science and Technology, Tsinghua University. He got his B.E. in 2006 and his Ph.D. in 2011 from the Department of Computer Science and Technology, Tsinghua University. His research interests are natural language processing and social computation. He has published over 60 papers in international journals and conferences, including IJCAI, AAAI, ACL, and EMNLP.Jie Zhou is a second-year Masters student of the Department of Computer Science and Technology, Tsinghua University. He got his B.E. from Tsinghua University in 2016. His research interests include graph neural networks and natural language processing.

เดˆ เด‡-เดฌเตเด•เตเด•เต เดฑเต‡เดฑเตเดฑเต เดšเต†เดฏเตเดฏเตเด•

เดจเดฟเด™เตเด™เดณเตเดŸเต† เด…เดญเดฟเดชเตเดฐเดพเดฏเด‚ เดžเด™เตเด™เดณเต† เด…เดฑเดฟเดฏเดฟเด•เตเด•เตเด•.

เดตเดพเดฏเดจเดพ เดตเดฟเดตเดฐเด™เตเด™เตพ

เดธเตโ€ŒเดฎเดพเตผเดŸเตเดŸเตเดซเต‹เดฃเตเด•เดณเตเด‚ เดŸเดพเดฌเตโ€Œเดฒเต†เดฑเตเดฑเตเด•เดณเตเด‚
Android, iPad/iPhone เดŽเดจเตเดจเดฟเดตเดฏเตเด•เตเด•เดพเดฏเดฟ Google Play เดฌเตเด•เตโ€Œเดธเต เด†เดชเตเดชเต เด‡เตปเดธเตโ€Œเดฑเตเดฑเดพเตพ เดšเต†เดฏเตเดฏเตเด•. เด‡เดคเต เดจเดฟเด™เตเด™เดณเตเดŸเต† เด…เด•เตเด•เต—เดฃเตเดŸเตเดฎเดพเดฏเดฟ เดธเตเดตเดฏเดฎเต‡เดต เดธเดฎเดจเตเดตเดฏเดฟเดชเตเดชเดฟเด•เตเด•เดชเตเดชเต†เดŸเตเด•เดฏเตเด‚, เดŽเดตเดฟเดŸเต† เด†เดฏเดฟเดฐเตเดจเตเดจเดพเดฒเตเด‚ เด“เตบเดฒเตˆเดจเดฟเตฝ เด…เดฒเตเดฒเต†เด™เตเด•เดฟเตฝ เด“เดซเตโ€Œเดฒเตˆเดจเดฟเตฝ เดตเดพเดฏเดฟเด•เตเด•เดพเตป เดจเดฟเด™เตเด™เดณเต† เด…เดจเตเดตเดฆเดฟเด•เตเด•เตเด•เดฏเตเด‚ เดšเต†เดฏเตเดฏเตเดจเตเดจเต.
เดฒเดพเดชเตเดŸเต‹เดชเตเดชเตเด•เดณเตเด‚ เด•เดฎเตเดชเตเดฏเต‚เดŸเตเดŸเดฑเตเด•เดณเตเด‚
Google Play-เดฏเดฟเตฝ เดจเดฟเดจเตเดจเต เดตเดพเด™เตเด™เดฟเดฏเดฟเดŸเตเดŸเตเดณเตเดณ เด“เดกเดฟเดฏเต‹ เดฌเตเด•เตเด•เตเด•เตพ เด•เดฎเตเดชเตเดฏเต‚เดŸเตเดŸเดฑเดฟเดจเตโ€เดฑเต† เดตเต†เดฌเต เดฌเตเดฐเต—เดธเตผ เด‰เดชเดฏเต‹เด—เดฟเดšเตเดšเตเด•เตŠเดฃเตเดŸเต เดตเดพเดฏเดฟเด•เตเด•เดพเดตเตเดจเตเดจเดคเดพเดฃเต.
เด‡-เดฑเต€เดกเดฑเตเด•เดณเตเด‚ เดฎเดฑเตเดฑเต เด‰เดชเด•เดฐเดฃเด™เตเด™เดณเตเด‚
Kobo เด‡-เดฑเต€เดกเดฑเตเด•เตพ เดชเต‹เดฒเตเดณเตเดณ เด‡-เด‡เด™เตเด•เต เด‰เดชเด•เดฐเดฃเด™เตเด™เดณเดฟเตฝ เดตเดพเดฏเดฟเด•เตเด•เดพเตป เด’เดฐเต เดซเดฏเตฝ เดกเต—เตบเดฒเต‹เดกเต เดšเต†เดฏเตเดคเต เด…เดคเต เดจเดฟเด™เตเด™เดณเตเดŸเต† เด‰เดชเด•เดฐเดฃเดคเตเดคเดฟเดฒเต‡เด•เตเด•เต เด•เตˆเดฎเดพเดฑเต‡เดฃเตเดŸเดคเตเดฃเตเดŸเต. เดชเดฟเดจเตเดคเตเดฃเดฏเตเดณเตเดณ เด‡-เดฑเต€เดกเดฑเตเด•เดณเดฟเดฒเต‡เด•เตเด•เต เดซเดฏเดฒเตเด•เตพ เด•เตˆเดฎเดพเดฑเดพเตป, เดธเดนเดพเดฏ เด•เต‡เดจเตเดฆเตเดฐเดคเตเดคเดฟเดฒเตเดณเตเดณ เดตเดฟเดถเดฆเดฎเดพเดฏ เดจเดฟเตผเดฆเตเดฆเต‡เดถเด™เตเด™เตพ เดซเต‹เดณเต‹ เดšเต†เดฏเตเดฏเตเด•.