<div dir="ltr"><div>======================================<br></div><div><br></div><div>(apologies for cross-posting)<br><br>======================================<br><br>2nd Workshop on Evolutionary Computing and Explainable AI (ECXAI)<br><br>Part of the ACM Conference on Genetic and Evolutionary Computation<br>(GECCO 2023) July 15-19, 2023<br><br>Note that GECCO 2023 will be a hybrid conference; onsite in Lisbon,<br>Portugal, and online<br><br><b>*Submission deadline: April 17, 2023*<br></b><br><a href="https://ecxai.github.io/ecxai/workshop-2023" rel="noreferrer" target="_blank">https://ecxai.github.io/ecxai/workshop-2023</a><br><br>======================================<br><br>CALL FOR PAPERS<br><br>======================================<br><br>Explainable artificial intelligence has gained significant traction in<br>the machine learning community in recent years because of the need to<br>generate “explanations” of how these typically black-box tools operate<br>that are accessible to a wide range of users. Nature-inspired<br>optimisation techniques are also often black box in nature, and the<br>attention of the explainability community has begun to consider<br>explaining their operation too. Many of the processes that drive<br>nature-inspired optimisers are stochastic and complex, presenting a<br>barrier to understanding how solutions to a given optimisation problem<br>have been generated.<br><br>Explainable optimisation can address some of the questions that arise<br>during the use of an optimiser: Is the system biased? Has the problem<br>been formulated correctly? Is the solution trustworthy and fair? By<br>providing mechanisms that enable a decision maker to interrogate an<br>optimiser and answer these questions trust is built with the system. On<br>the other hand, many approaches to XAI in machine learning are based on<br>search algorithms that interrogate or refine the model to be explained,<br>and have the potential to draw on the expertise of the EC community.<br>Furthermore, many of the broader questions (such as what kinds of<br>explanations are most appealing or useful to end users) are faced by XAI<br>researchers in general.<br><br>From an application perspective, important questions have arisen, for<br>which XAI may be crucial: Is the system biased? Has the problem been<br>formulated correctly? Is the solution trustworthy and fair? The goal of<br>XAI and related research is to develop methods to interrogate AI<br>processes with the aim of answering these questions. This can support<br>decision makers while also building trust in AI decision-support through<br>more readily understandable explanations.<br><br>Following the success of the first workshop hosted at GECCO 2022, we<br>seek contributions on a range of topics related to this theme, including<br>but not limited to:<br><br>  - Interpretability vs explainability in EC and their quantification<br>  - Landscape analysis and XAI<br>  - Contributions of EC to XAI in general<br>  - Use of EC to generate explainable/interpretable models<br>  - XAI in real-world applications of EC<br>  - Possible interplay between XAI and EC theory<br>  - Applications of existing XAI methods to EC<br>  - Novel XAI methods for EC<br>  - Legal and ethical considerations<br>  - Case studies / applications of EC & XAI technologies<br><br>Papers will be double blind reviewed by members of our technical<br>programme committee.Authors can submit short contributions including<br>position papers of up to 4 pages and regular contributions of up to 8<br>pages following in each category the GECCO paper formatting guidelines.<br>Software demonstrations will also be welcome.<br><br>For more detailed information, see the ECXAI workshop website:<br><a href="https://ecxai.github.io/ecxai/workshop-2023" rel="noreferrer" target="_blank">https://ecxai.github.io/ecxai/workshop-2023</a><br><br>======================================<br><br>IMPORTANT DATES<br><br>======================================<br><br><b>*Submission deadline: 17 April 2023*</b><br>Notification: 3 May 2023<br>Camera-ready: 10 May 2023<br>Presenter mandatory registration: 10 May 2023<br>Workshop: TBC - during GECCO which runs 15-19 July 2023<br><br>======================================<br><br>PAPER SUBMISSION<br><br>======================================<br><br>Workshop papers must be submitted using the GECCO submission system<br>(<a href="https://ssl.linklings.net/conferences/gecco/" rel="noreferrer" target="_blank">https://ssl.linklings.net/conferences/gecco/</a>). After login, the authors<br>need to select the "Workshop Paper" submission form. In the form, the<br>authors must select the workshop they are submitting to. To see a sample<br>of the "Workshop Paper" submission form, go to GECCO's submission system<br>and select "Sample Submission Forms". Submitted papers must not exceed 8<br>pages (excluding references) and are required to be in compliance with<br>the GECCO 2023 Papers Submission Instructions<br>(<a href="https://gecco-2023.sigevo.org/Paper-Submission-Instructions" rel="noreferrer" target="_blank">https://gecco-2023.sigevo.org/Paper-Submission-Instructions</a>). It is<br>recommended to use the same templates as the papers submitted to the<br>main tracks.  Each paper submitted to this workshop will be rigorously<br>reviewed in a double-blind review process. In other words, authors<br>should not know who the reviewers of their work are and reviewers should<br>not know who the authors are. To this end, the following information is<br>very important: Submitted papers should be ANONYMIZED. This means that<br>they should NOT contain any element that may reveal the identity of<br>their authors. This includes author names, affiliations, and<br>acknowledgments. Moreover, any references to any of the author's own<br>work should be made as if the work belonged to someone else. All<br>accepted papers will be presented at the ECXAI workshop and appear in<br>the GECCO 2023 Conference Companion Proceedings. By submitting a paper,<br>the author(s) agree that, if their paper is accepted, they will:<br><br>- Submit a final, revised, camera-ready version to the publisher on or<br>before the camera-ready deadline.<br><br>- Register at least one author by the author registration deadline to<br>participate in the conference.<br><br>- Provide a pre-recorded version of the talk and be present during its<br>online transmission (which will occur during the days of the conference)<br>to answer questions from the (online) audience.<br><br>As a published ACM author, you and your co-authors are subject to all<br>ACM Publications Policies (<a href="https://www.acm.org/publications/policies/toc" rel="noreferrer" target="_blank">https://www.acm.org/publications/policies/toc</a>),<br><br>including ACM's new Publications Policy on Research Involving Human<br>Participants and Subjects<br>(<a href="https://www.acm.org/publications/policies/research-involving-human-participants-and-subjects" rel="noreferrer" target="_blank">https://www.acm.org/publications/policies/research-involving-human-participants-and-subjects</a>).<br><br>======================================<br><br>WORKSHOP CHAIRS (in alphabetical order)<br><br>======================================<br><br>Jaume Bacardit, Newcastle University, UK, <a href="mailto:jaume.bacardit@newcastle.ac.uk" target="_blank">jaume.bacardit@newcastle.ac.uk</a><br>Alexander Brownlee, University of Stirling, UK,<br><a href="mailto:alexander.brownlee@stir.ac.uk" target="_blank">alexander.brownlee@stir.ac.uk</a><br>Stefano Cagnoni, University of Parma, Italy, <a href="mailto:cagnoni@ce.unipr.it" target="_blank">cagnoni@ce.unipr.it</a><br>Giovanni Iacca, University of Trento, Italy, <a href="mailto:giovanni.iacca@unitn.it" target="_blank">giovanni.iacca@unitn.it</a><br>John McCall, Robert Gordon University, UK, <a href="mailto:j.mccall@rgu.ac.uk" target="_blank">j.mccall@rgu.ac.uk</a><br>David Walker, University of Plymouth, UK, <a href="mailto:david.walker@plymouth.ac.uk" target="_blank">david.walker@plymouth.ac.uk</a><br><br></div><div>======================================</div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>