Zum Hauptinhalt springen

Geistes- und Sozialwissenschaften

Lajla Fetic

E-Mail

lajla.fetic@email.de

Alter

28

Aktuelle Tätigkeit

Masterand*in
(Young) Professional


Institution

Freie Beraterin und Wissenschaftlerin

Berlin

Berlin


Biographie

Lajla Fetic forscht, spricht und schreibt als freie Wissenschaftlerin und Beraterin zu den ethischen Aspekten Künstlicher Intelligenz. 2021 wurde sie dafür als eine der 100 Brilliant Women in AI Ethics ausgezeichnet. Sie beschäftigt sich vor allem mit der Frage, wie Technologie einen Beitrag zur Stärkung des Gemeinwohls leisten kann und wirklich alle davon profitieren können. Um Wissenschaft und Praxis zu vereinen, hat sie als Co-Autorin mehrere Leitfäden zur Umsetzung von KI-Ethik verfasst. Außerdem war sie als Teil der AI Ethics Impact Group an der Erstellung eines KI-Ethik-Labels beteiligt. Sie gibt ihr Wissen auch als leidenschaftliche Dozentin an angehende Digitalexpert:innen und Führungskräfte weiter, während sie parallel ein Masterprogramm an der Hertie School und der Sciences Po absolviert. Als Projekt Managerin für die Bertelsmann Stiftung hat sie zuvor im Projekt „Ethik der Algorithmen“ die Weiterentwicklung ethischer Regeln für KI in Unternehmen und im öffentlichen Sektor verantwortet. Heute berät sie das Team weiterhin als externe Expertin. //////////////////////////////////////////////////////////// Lajla Fetic works, speaks and writes as a researcher and consultant on the ethical aspects of artificial intelligence. In 2021, she was named one of the 100 Brilliant Women in AI Ethics. She is primarily concerned with the question of how technology can contribute to strengthening the common good. To bridge science and practice, she has co-authored several guides on implementing AI ethics and was also involved in the creation of an AI ethics label as part of the AI Ethics Impact Group. She is passionate about sharing her knowledge as a lecturer to aspiring digital experts and leaders while pursuing a Master's program at the Hertie School and Sciences Po. Prior to that, she was a project manager for the Bertelsmann Stiftung and responsible for the development of ethical rules for AI in companies and the public sector in the project "Ethics of Algorithms" and continues to advise the team as an external expert.

Fragestellungen im Themenfeld Künstliche Intelligenz

Es gibt weit über 200 KI-Ethik-Guidelines weltweit und es werden kontinuierlich mehr. Haben wir dadurch bereits über alle wichtigen Aspekte bei der ethischen Gestaltung von algorithmischen Systemen gesprochen? Herrscht Einigkeit über die Umsetzungsmöglichkeiten in der Praxis? Hier liegt noch ein langer Weg vor uns! Abstrakte Ethik-Debatten und Richtlinien brauchen Konkretisierung, Unternehmen und der öffentliche Sektor benötigen Umsetzungshilfen für die jeweiligen Anwendungsfälle. In meiner Arbeit setze ich mich dafür ein, die Theoriedebatten in die Praxis zu übersetzen und arbeite mit dem #AlgoRules-Projekt genau an dieser Schnittstelle. Was meinen wir, wenn wir über "faire" und "vertrauenswürdige" KI sprechen? Inwiefern gelingt es, dies messbar zu machen? Wie müssen Prozesse gestaltet werden, sodass Entwickler:innen und Anwender:innen gleichermaßen auf (ungewollte) Biases reagieren können? Dafür braucht es unterschiedliche Lösungen, die ich mit Expert:innen und Betroffenen entwickle. //////////////////////////////////////////////////////////// There are well over 200 AI ethics guidelines worldwide and the number is growing continuously. Have we thus already talked about all the important aspects of the ethical design of algorithmic systems? Is there agreement on how to implement them in practice? There is indeed still a long way to go! Abstract ethical debates and guidelines need concretization, companies and the public sector need implementation aids for the respective use cases. In my work, I am committed to translating theory debates into practice, and with the #AlgoRules project, I work precisely at this intersection. What do we mean when we talk about "fair" and "trustworthy" AI? How could we make this measurable? How should processes be designed so that developers and users alike can react to (unintentional) biases? This requires different solutions, which I'm developing together with experts and stakeholders. www.lajlafetic.de