• Julia Eisner: Wie nachhaltig ist KI? Wieviele und welche Ressourcen verbraucht sie?
    Mar 30 2024
    Folge 5 Wir sprechen mit Julia Eisner, Forscherin im Bereich empirische Sozialforschung und Consumer Research über den Ressourcenverbrauch und die Ökobilanz der KI, insbesondere über den enormen Strom- und Wasserverbrauch der KI. Der Diskurs über die ökologische Auswirkung von KI-Systemen steht noch ganz am Anfang. Über die Expertin: Julia Eisner, BA. MA., ist in Lehre und Forschung an der Fachhochschule Wiener Neustadt, Campus Wieselburg, tätig. Ihr Forschungsschwerpunkt liegt im Bereich der empirischen Sozialforschung und Consumer Research, sowie nun verstärkt im Bereich der ökologisch und gesellschaftlich verantwortungsvolle Anwendung von Daten und künstlicher Intelligenz. Zudem promoviert sie derzeit in Soziologie an der Universität Wien mit einem Schwerpunkt auf vertrauenswürdiger generativer AI in Corporate Communication & PR. Ihre Engagement zeigt sich auch außerhalb der akademischen Welt durch ihre Aktivität im Verein Women in AI, wo sie Keynotes hält und an Podiumsdiskussionen teilnimmt. Über den Host: Elena Messner ist eine mehrfach ausgezeichnete Schriftstellerin und Kulturwissenschaftlerin. Gabriele Schelle ist Theaterregisseurin und Autorin. Ein Podcast von FACTORY Theater Produktionen In dieser Folge: 0:00 Intro 1:59 Ökologische Potentiale und Risiken der KI 3:06 KI für Nachhaltigkeit 3:25 Digital Farming 4:30 Lebensmittelverschwendung eindämmen 5:37 Nachhaltigkeit der KI selbst 7:03 Stromverbrauch und CO2 Abdruck der KI 8:02 CO2 Emission und Stromverbrauch ChatGPT3 8:34 Energiebilanz über den Lebenszyklus der KI 9:44 Elektroschrott 10:19 Wasserverbrauch der KI ist riesig 13:50 Zitat „Die Diskussion über ethische Aspekte wird häufig nicht mit dem Verweis auf Nachhaltigkeit geführt. Mit einer umfassenden Definition sozialer Nachhaltigkeit sind jedoch auch diese Aspekte als Gegenstand einer Nachhaltigkeitsbewertung zu betrachten“ Schriftenreihe, IÖW, Berlin 2021 14:34 Nachhaltigkeitskriterien für KI 17:04 Berichterstattungspflicht der Unternehmen in der EU 18:31 Zitat: „In Anbetracht des weitreichenden Einsatzes von KI sowie dessen ökologischer Relevanz, wäre es im Sinne einer menschenzentrierten KI-Entwicklung, wie sie z.B. die EU fordert (EU-Guidelines, 2019), notwendig, dass ein öffent­licher Diskurs über KI auch Perspektiven und Fragen der ökologischen Nachhaltigkeit auf­greift. Da wir in unseren Daten eine große Zahl an Personen identifizieren, die kaum Urteile über das Thema wagen oder leisten können, ist eine Vermittlung von KI-Kompetenzen in diesem Bereich für eine aufgeklärte Bürger­schaft notwendig.“ Meinungsmonitor, Factsheet Nr. 6 März 2022 19:12 Medialer Diskurs zu Nachhaltigkeit der KI 25:31 Transparenz der Daten 26:12 Inter- und transdisziplinärer Diskurs Technik & Sozial- und Humanwissenschaften 29:10 Code in der Datawelt: Männlich-weiblich 0-1 Links und Quellen: Julia Eisner https://www.fhwn.ac.at/mitarbeiter/eisner-julia Meinungsmonitor KI Factsheet Nr.6 März 2022 https://www.cais-research.de/wp-content/uploads/Factsheet-6-KI-Nachhalitgkeit.pdf Schriftenreihe IÖW, Berlin 2021 https://www.ioew.de/publikation/nachhaltigkeitskriterien_fuer_kuenstliche_intelligenz Redaktion und Mitarbeit: Elena Messner (Kuration), Gabriele Schelle (Kuration). Christian Nisslmüller (Produktionsleitung), Martin Lohr (Aufnahmeleitung Studio), Alisa Karabut (Grafik). Kontakt: Wir freuen uns über Fragen und Kommentare an info@theater-factory.de Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf welcher Plattform auch immer ihr ihn hört. Und empfehlt uns gerne weiter! Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts.
    Mehr anzeigen Weniger anzeigen
    36 Min.
  • Florian Krenn: Wie denkt KI? Wie lernt KI? Wer trainiert sie?
    Mar 27 2024

    Folge 4


    Wir sprechen mit Florian Krenn, Unternehmer und in KI-Forschungsprojekten für die Aufbereitung von Trainingsdaten zuständig, über die Trainingsdaten der KI. Wie und womit wird die KI trainiert? Wer generiert die Trainingsdaten? Worauf wird geachtet? Welche spannenden neuen Anwendungen gibt es?

    Über den Experten:

    Dr. Florian Krenn Unternehmer (Compunity GmbH) und in KI-Forschungsprojekten für die Aufbereitung von Trainingsdaten zuständig.

    Über den Host

    Gabriele Schelle (Moderation) ist Theaterregisseurin und Autorin. Ein Podcast von FACTORY Theater Produktionen

    In dieser Folge:

    0:00 Intro

    0:50 Arbeitsbereich Trainingsdaten

    2:25 Wie werden Trainingsdaten überhaupt generiert?

    4:12 Die Roboterin soll alles über Venedig wissen. Wie macht man das?

    6:05 Tagesaktuelle Informationen abrufen

    8:43 Überprüfbarkeit von Sprachassistenten

    18:10 Wortwolke und Kontext

    20:28 Spannende neue Anwendungen: Simultanübersetzer

    23:38 Wie wirkt Technologie auf den Menschen

    26:38 Kann ein normaler user ChatGPT trainieren?

    Links und Quellen:


    Florian Krenn

    https://www.researchgate.net/profile/Florian-Krenn

    Richard Socher “Was denken Maschinen?“ (2020)

    https://www.zeit.de/digital/2020-11/richard-socher-kuenstliche-intelligenz-interviewpodcast-alles-gesagt

    Janina Loh "Roboterethik" Suhrkamp Verlag 2019

    https://www.suhrkamp.de/buch/janina-loh-roboterethik-t-9783518298770


    Redaktion und Mitarbeit:

    Gabriele Schelle (Moderation, Kuration). Christian Nisslmüller (Produktionsleitung), Martin Lohr (Aufnahmeleitung Studio), Alisa Karabut (Grafik).

    Kontakt:
    Wir freuen uns über Fragen und Kommentare an info@theater-factory.de

    Unterstützt uns:

    Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf welcher Plattform auch immer ihr ihn hört. Und empfehlt uns gerne weiter!

    Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts.

    Mehr anzeigen Weniger anzeigen
    29 Min.
  • Janina Loh: Wie fühlt die KI? Wie liebt die KI? Handelt die KI moralisch?
    Mar 21 2024
    Folge 3 Wir sprechen über die Studie Roboterethik von Janina Loh, erschienen im Suhrkamp Verlag 2019. Janina Loh ist Philosophin und Ethikerin. Im Podcast hören wir einige Zitate von Janina Loh gesprochen. Wir reden über Trans- und Posthumanismus, Roboterethik und was inspiriert uns aus der Sicht der KI zu erzählen? Über die Expertin: Dr. Janina Loh (geb. Sombetzki) ist Ethiky 1 ) auf einer Stabsstelle Ethik bei der Stiftung Liebenau in Meckenbeuren am Bodensee und hat eine Honorarprofessur an der Hochschule Bonn-Rhein-Sieg am Zentrum für Ethik und Verantwortung (ZEV) für Ethik der Technik und ihrer sozialen Kontexte inne. Loh hat an der Humboldt-Universität zu Berlin studiert und von 2009 bis 2013 im Rahmen des von der DFG finanzierten Graduiertenkollegs Verfassung jenseits des Staates: Von der europäischen zur Globalen Rechtsgemeinschaft? promoviert, betreut durch Prof. Volker Gerhardt und Prof. Rahel Jaeggi. Lohs Dissertation Verantwortung als Begriff, Fähigkeit, Aufgabe. Eine Drei-Ebenen-Analyse erschien 2014 bei Springer VS. Nach einem dreijährigen Post-Doc-Aufenthalt an der Christian-Albrechts-Universität zu Kiel (2013-2016) hat Janina Loh als Universitätsassistenty (Post-Doc) im Bereich Technik- und Medienphilosophie an der Universität Wien gearbeitet (2016-2021). 2018 erschien von Loh die erste deutschsprachige Einführung in den Trans- und Posthumanismus (Junius, 4. Auflage 2023, koreanische Übersetzung 2021). Loh publizierte 2019 eine Einführung in die Roboterethik (Suhrkamp). Lohs viertes Buch / Habilitationsprojekt entwirft eine Kritisch-posthumanistische Ethik der Companionship für die Wissensräume (Arbeitstitel). Zu Janina Lohs engeren Forschungsinteressen zählen neben der Verantwortung, dem Trans- und Posthumanismus und der Roboterethik auch Hannah Arendt, feministische Technikphilosophie, Theorien der Urteilskraft, Nachhaltigkeit (insb. im Zusammenhang mit Lohs Konzept einer kritisch-posthumanistischen Ethik sowie mit Blick auf Künstliche Intelligenz, Digitalisierung und Robotik), Polyamorie sowie Ethik in den Wissenschaften. 1) Ich nutze in der Selbstbeschreibung das Entgendern nach Phettberg. Über den Host Elena Messner ist Schriftstellerin und Kulturwissenschaftlerin. Gabriele Schelle ist Theaterregisseurin und Autorin. Ein Podcast von FACTORY Theater Produktionen In dieser Folge: 0:00 Intro 3:47 Mensch-Roboter-Interaktion 5:39 Zitat (Janina Loh) 7:12 Trans-und Posthumanismus 8:44 Zitat (Janina Loh) 12:00 Vermenschlichung nicht-menschlicher Entitäten 14:03 Zitat (Janina Loh) 15:54 Soziale Roboter 19:09 Zitat (Janina Loh) 20:05 „Roboter sind immer irgendwo dazwischen“ 22:37 Das Unheimliche 28:55 Zitat (Janina Loh) 29:39 Philosophischer Diskurs 35:14 Zitat (Janina Loh) Links und Quellen: Homepage Janina Loh https://janinaloh.de Trans-und Posthumanismus zur Einführunghttps://www.junius-verlag.de/Programm/Zur-Einfuehrung/Trans-und-Posthumanismus-zur-Einfuehrung.html Roboterethik https://www.suhrkamp.de/buch/janina-loh-roboterethik-t-9783518298770 Transhumanismus, Technologischer Posthumanismus, Kritischer Posthumanismus https://www.philosophie.ch/2018-07-09-loh Responsibilty and Robot Ethics: a Critical Overview https://www.mdpi.com/2409-9287/4/4/58 Social Robots and the Good Life (Transcript Verlag) https://www.transcript-verlag.de/978-3-8376-6265-8/social-robotics-and-the-good-life/ Redaktion und Mitarbeit: Elena Messner (Kuration, Moderation), Gabriele Schelle (Kuration, Moderation). Christian Nisslmüller (Produktionsleitung), Martin Lohr (Aufnahmeleitung), Alisa Karabut (Grafik). Kontakt: Wir freuen uns über Fragen und Kommentare an info@theater-factory.de Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf welcher Plattform auch immer ihr ihn hört. Und empfehlt uns gerne weiter! Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts.
    Mehr anzeigen Weniger anzeigen
    36 Min.
  • Carina Zehetmaier: Wie vertrauenswürdig ist KI? Wie gerecht ist KI? Wie ungerecht ist KI?
    Feb 29 2024
    Folge 2 Wir sprechen mit Carina Zehetmaier, KI-Expertin und Unternehmerin über den Bias der KI und die möglichen Folgen. Wie vertrauenswürdig ist die KI wirklich? Wie schleicht sich Diskriminierung in die Technologie? Wie bringen wir Gerechtigkeit in ein System von dem wir nicht wissen wie es arbeitet? Was bedeutet der Bias der KI im Kontext der Strafverfolgung? Wie könnte der Weg zu einer gerechten KI aussehen? Welche Regulierung erfährt KI durch den AI-act der EU? Über die Expertin: Carina Zehetmaier ist KI-Expertin, Unternehmerin und Botschafterin für Women in AI Austria. Als Unternehmerin mit einer Leidenschaft für KI und soziales Unternehmertum genießt sie es Geschäftsmöglichkeiten zu erforschen, die die Kraft neuer Technologien zum Nutzen der Menschen und unseres Planeten einsetzen. Als ausgebildete Menschenrechtsjuristin verfügt sie über mehrere Jahre Erfahrung in Nichtregierungs-, Regierungs- und internationalen Organisationen und hat ein tiefergehendes Verständnis von Diplomatie, Weltpolitik und internationalen Beziehungen. Über den Host Gabriele Schelle (Moderation) ist Theaterregisseurin und Autorin. Ein Podcast von FACTORY Theater Produktionen In dieser Folge: 0:00 Intro 0:56 Wie vertrauenswürdig ist die KI wirklich? 1:29 Problem des Halluzinierens 4:10 Kontext der Strafverfolgung 5:36 Black-Box Problem. Recherchegebiet: “Explainable AI” 6:16 Regulierung der KI 6:36 Bias: Fehlentscheidungen durch Diskriminierung 7:26 Rechenschaftspflicht der KI 9:14 Wie misst man eigentlich, ob das System performt oder nicht? 11:15 AI-act der EU / Risikopyramide 13:04 Deep fakes 14:24 Impact Assessment (Folgenabschätzung) 14:58 KI kann nicht objektiv und neutral sein 15:48 Diversität 17:25 Automation Bias 17:43 „Coded Bias“ Dokumentarfilm von Joy Buolamwini 17:54 „Ein Algorithmus bezieht sich auf historische Informationen und macht eine Vorhersage über die Zukunft. Big Data ist also eine Reflektion unserer Geschichte. Es ist so als würde unsere Vergangenheit in den Algorithmen verweilen.“ Joy Buolamwini 21:34 Chat-GPT wird am englisch-sprachigen Web trainiert 24:59 Environmental Impact der KI 34:12 Ängste vor KI 35:51 Wir müssen sicherstellen, dass wir alle Menschen mitnehmen. 36:20 Fake und Wirklichkeit Links und Quellen: Women in AI https://www.womeninai.co Guidinglight – Unternehmen von Carina Zehtmaier https://www.guidinglight.eu/de/carina-zehetmaier „Gender Shades“ (2018) Studie von Joy Buolamwini, Massachusetts Institute of Technology https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 „Coded Bias“ ein Film von Shalini Kantayya https://www.codedbias.com Redaktion und Mitarbeit: Gabriele Schelle (Moderation, Kuration). Christian Nisslmüller (Produktionsleitung), Martin Lohr (Aufnahmeleitung Studio), Alisa Karabut (Grafik). Kontakt: Wir freuen uns über Fragen und Kommentare an info@theater-factory.de Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf welcher Plattform auch immer ihr ihn hört. Und empfehlt uns gerne weiter! Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts.
    Mehr anzeigen Weniger anzeigen
    38 Min.
  • Adrián Artacho: Wie klingt KI? Wie spricht KI? Wie hört KI?
    Feb 22 2024
    Folge 1 Wir sprechen mit Adrián Artacho, Musiker, Komponist und artistic researcher über die sinnliche Seite der KI. Wie wird die Stimme einer Roboterin überhaupt technisch generiert? Mit welchen Sounds können wir arbeiten? Was passiert technisch, wenn eine Roboterin zuhört? Welche Erfahrungen hat Adrian mit interaktiven Sounds im performativen Raum? Was könnte ein Atlas of (Under)-water-Sounds sein? Über den Experten:  Adrián Artacho forscht an der Universität für Musik und darstellende Kunst in Wien im Bereich Performance-Technologie. Er ist ein aktiver Performer von Live-Elektronik entweder solo oder in verschiedenen Konfigurationen, einschließlich Visuals und digitalen Musikinstrumenten. Neben seiner rein künstlerischen Arbeit hat Artacho mehrere Projekte zur Wissenschaftskommunikation entwickelt, darunter den internationalen Kompositionswettbewerb Sounds of Matter. Außerdem ist er Mitbegründer der Tanzkompanien Tanz.Labor.Labyrinth und SyncLab Tanzkollektiv. Über den Host:  Gabriele Schelle ist Regisseurin und Autorin. Elena Messner ist Schriftstellerin und Kulturwissenschaftlerin. Ein Podcast von FACTORY Theater Produktionen  In dieser Folge: 0:00  Intro 0:56   Wie wird die Stimme einer Roboterin technisch generiert?  3:34   Stimmen verwandeln 9:27   Was sind die Merkmale einer möglichen posthumanen Kunst, die aus der Zusammenarbeit  von und menschlichen und nicht-menschlichen Wesen entsteht?  9:38 Zitat: „Für die Beschreibung neuerer KI-Konzepte in der Robotik liegt es daher nahe,  insbesondere posthumanistische Konzepte heranzuziehen, die ein Vokabular für veränderte Menschenbilder bereithalten. Der Begriff Posthumanismus beschreibt in diesem Zusammenhang unterschiedliche analytische und ethische Projekte, die im Zuge gesellschaftlich-technologischer Veränderungen auf eine Rekonzeptualisierung der Figur des Menschen abzielen.“ Hanna Link in ⁠KI-Realities⁠ (Hg. Jordan/Groß, 2023)  10:03  Was passiert technisch, wenn eine Roboterin zuhört 11:42 Erfahrungen mit interaktiven Sounds?  13:52  Atlas of (Under)-water-Sounds 17:27 Soundbeispiele  18:49 Urheberrecht und KI 20:30 Ressourcenverschwendung der KI Links und Quellen: Adrián Artacho https://www.artacho.at Transcript Verlag: „KI-Realitäten“  https://www.transcript-verlag.de/978-3-8376-6660-1/ki-realitaeten/?c=311023261&number=978-3-8394-6660-5 Transkript Verlag Reihe KI-Kritik / AI Critiquehttps://www.transcript-verlag.de/reihen/medienwissenschaft/ki-kritik-ai-critique/?f=12320 Adrián Artacho: Atlas of Smooth Spaceshttps://the-smooth.space/blog/ Redaktion und Mitarbeit:  Elena Messner (Moderation/Kuration), Gabriele Schelle (Moderation/Kuration); Christian Nisslmüller (Produktionsleitung); Martin Lohr (Aufnahmeleitung Studio); Alisa Karabut (Grafik).  Kontakt: Wir freuen uns über Fragen und Kommentare an info@theater-factory.de Unterstützt uns: Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung. Abonniert den Podcast auf welcher Plattform auch immer ihr ihn hört. Und empfehlt uns gerne weiter!  Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts.     
    Mehr anzeigen Weniger anzeigen
    24 Min.