He / Ren / Tang | Information Retrieval | E-Book | sack.de
E-Book

E-Book, Englisch, 149 Seiten

Reihe: Lecture Notes in Computer Science

He / Ren / Tang Information Retrieval

30th China Conference, CCIR 2024, Wuhan, China, October 18–20, 2024, Revised Selected Papers
Erscheinungsjahr 2025
ISBN: 978-981-961710-4
Verlag: Springer Singapore
Format: PDF
Kopierschutz: 1 - PDF Watermark

30th China Conference, CCIR 2024, Wuhan, China, October 18–20, 2024, Revised Selected Papers

E-Book, Englisch, 149 Seiten

Reihe: Lecture Notes in Computer Science

ISBN: 978-981-961710-4
Verlag: Springer Singapore
Format: PDF
Kopierschutz: 1 - PDF Watermark



This book constitutes the refereed proceedings of the 30th China Conference on Information Retrieval, CCIR 2024, held in Wuhan, China, during October 18–20, 2024.

The 11 full papers presented in this volume were carefully reviewed and selected from 26 submissions. As the flagship conference of CIPS, CCIR focuses on the development of China’s internet industry and provides a broad platform for the exchange of the latest academic and technological achievements in the field of information retrieval.

He / Ren / Tang Information Retrieval jetzt bestellen!

Zielgruppe


Research

Weitere Infos & Material


.- Play to Your Strengths: Collaborative Intelligence of Conventional Recommender Models and Large Language Models.
.- A Dual-Aligned Model for Multimodal Recommendation.
.- CASINet: A Context-Aware Social Interaction Rumor Detection Network.
.- A Claim Decomposition Benchmark for Long-form Answer Verification.
.- Dual-granularity Hierarchical Fusion Network for Multimodal Humor Recognition on Memes.
.- Exploring the Potential of Dimension Reduction in Building Efficient Dense Retrieval Systems.
.- Relation Extraction Model Based on Overlap Rules and Abductive Learning.
.- Multi-task Instruction Tuning for Temporal Question Answering over Knowledge Graphs.
.- On the Capacity of Citation Generation by Large Language Models.
.- Are Large Language Models More Honest in Their Probabilistic or Verbalized Confidence?.
.- QUITO: Accelerating Long-Context Reasoning through Query-Guided Context Compression.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.