Mualla / Yu / Liga | Advances in Explainability, Agents, and Large Language Models | E-Book | www2.sack.de
E-Book

E-Book, Englisch, 127 Seiten

Reihe: Communications in Computer and Information Science

Mualla / Yu / Liga Advances in Explainability, Agents, and Large Language Models

First International Workshop on Causality, Agents and Large Models, CALM 2024, Kyoto, Japan, November 18–19, 2024, Proceedings
Erscheinungsjahr 2025
ISBN: 978-3-031-89103-8
Verlag: Springer International Publishing
Format: PDF
Kopierschutz: 1 - PDF Watermark

First International Workshop on Causality, Agents and Large Models, CALM 2024, Kyoto, Japan, November 18–19, 2024, Proceedings

E-Book, Englisch, 127 Seiten

Reihe: Communications in Computer and Information Science

ISBN: 978-3-031-89103-8
Verlag: Springer International Publishing
Format: PDF
Kopierschutz: 1 - PDF Watermark



This book constitutes the refereed proceedings of the First International Workshop on Advances in explainability, agents, and large language models, CALM 2024, held in Kyoto, Japan, during November 18–19, 2024.

The 7 full papers and 1 short paper presented in this book were carefully reviewed and selected from 17 submissions. The Workshop on Causality, Agents, and Large Models (CALM) was established to foster interdisciplinary collaboration and advance research at the intersection of causal reasoning, multi-agent systems (MAS), and large language models (LLMs).

Mualla / Yu / Liga Advances in Explainability, Agents, and Large Language Models jetzt bestellen!

Zielgruppe


Research

Weitere Infos & Material


.- Enhancing Personalized Nutrition: A Hybrid Intelligence Approach with LLM-Powered Meal Planning.

.- Generating Explanations for Molecular Property Predictions in Graph Neural Networks.

.- Balancing (Normative) Reasons for the Intelligent Human-input-based Blockchain Oracle.

.- Feature Generation Using LLMs: An Evolutionary Algorithm Approach.

.- Augmenting Dark Patterns Text Data by Leveraging Large Language Models: a Multi-Agent Framework and Parameter-Efficient Fine-Tuning.

.- Assessing the Robustness of LLMs in Predicting Supports and Attacks.

.- Enhancing accuracy and explainability in anomaly classification with large language models.

.- Agent-Based Hate Speech Moderation Approach.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.