© Adobe/annebel146

Ich, Zukunft und digitale Sprachverarbeitung

Digitale Sprachassistenten wie Alexa, Siri und Co. sind weit verbreitet und in vielen Haushalten zu finden. Die Anwendungsfälle beschränken sich aktuell vor allem auf den Entertainment-Bereich oder Smart-Home Steuerungen. Bei solchen Standard-Anfragen funktionieren die Systeme zuverlässig, vorausgesetzt der Mensch verwendet in seinen Sprachbefehlen bestimmte allgemeinbekannte Trigger-Sätze wie „Alexa, schalte das Licht ein“. Auf spontane, weniger explizite Spracheingaben hingegen reagieren die Systeme oft mit sogenannten Fallback-Antworten wie „Ich weiß leider nicht, wie ich dir dabei helfen kann“, weil sie die Eingabe nicht zuordnen können. Der Fall zeigt, dass es digitalen Assistenten bislang nicht oder nur in eingeschränktem Maße möglich ist, den Kontext einer Unterhaltung mit dem Menschen zu erfassen.

Das könnte sich perspektivisch mit dem Aufkommen sogenannter Large Language Models (LLM) ändern. Das bekannteste Beispiel ChatGPT basiert auf schriftlichen Eingaben, zeigt jedoch seit einigen Monaten auf eindrucksvolle Weise, was im Bereich Sprachverarbeitung möglich ist: Anders als die oben beschriebenen Sprachmodellen von Alexa und Siri, ist das ChatGPT zugrundeliegende LLM sehr wohl in der Lage, den Kontext einer Unterhaltung zu erfassen und sich auf Informationen aus dem Gesprächsverlauf zu beziehen. Dies stellt in Aussicht, dass explizite Kommandos in Zukunft obsolet und die sprachbasierte Interaktion zwischen Mensch und Maschine auf impliziteren Befehlen basieren und somit deutlich intuitiver werden könnte.

In dieser Veranstaltung erklären Forschende die Funktionsweise von LLM und räumen dabei mit überzogenen Erwartungen an die Technologie auf. Basierend auf einem gemeinsamen Verständnis vom Potenzial und den Grenzen der digitalen Sprachverarbeitung diskutieren Wissenschaftlerinnen und Wissenschaftler, ob und wie es mit Hilfe von Integrierter Forschung gelingen kann, digitale Sprachverarbeitung im Sinne der Nutzenden weiterzuentwickeln. Dabei sollen bestehende und potenzielle Anwendungsbereiche für die Zukunft beleuchtet werden. Gleichzeitig thematisiert die Veranstaltung die Auswirkungen der Technologie auf das Zusammenwirken zwischen Mensch und Maschine. Dabei werden auch kritische Fragen zu Datenschutz und Ethik eine Rolle spielen.

  • Agenda

    8:30 – 9:00 Uhr Virtuelles Einfinden

    9:00 – 9:15 Uhr Begrüßung

    • Katrin Nostadt, Referat 617 „Interaktive Technologien für Gesundheit
      und Lebensqualität“, Bundesministerium für Bildung und Forschung
      (BMBF)

    9:15 – 9:50 Uhr Keynote „Ich, Zukunft und digitale Sprachverarbeitung“

    9:50 – 10:00 Uhr Pause

    10:00 – 10:45 Uhr AUF EIN WORT

    10:45 – 10:55 Uhr Pause

    10:55 – 12:05 Uhr Parallele Breakout-Sessions

    12:05 – 12:20 Uhr Pause

    12:20 – 12:50 Uhr Flashback

    12:50 – 13:00 Uhr Abschluss

    • Katrin Nostadt, Referat 617 „Interaktive Technologien für Gesundheit
      und Lebensqualität“, Bundesministerium für Bildung und Forschung
      (BMBF)

    Download: Detailierte Agenda

Bundesministerium für Bildung und Forschung

© Privat

Katrin Nostadt

Katrin Nostadt ist seit 2005 Referentin im Bundesministerium für Bildung und Forschung, wo sie sich u.a. für die Zusammenarbeit mit China, für Klimaforschung in Afrika und Fachhochschulförderung und als deutsche Delegierte in verschiedenen europäischen Konsortien eingesetzt hat. Seit 2014 ist sie im Referat „Interaktive Technologien für Gesundheit und Lebensqualität“ tätig. Katrin Nostadt ist Magister der Germanistik und Anglistik mit Schwerpunkt auf interkulturelle Kommunikation und verfügt über einen MBA in European Asian Management. Sie lehrte Germanistik an der Sun Yat Sen Universität in Guangzhou, China, und engagierte sich als Leiterin des DAAD-Informationszentrums für deutsches Hochschulmarketing in Südchina.

Moderation

Profilbild Thomas Sauermann
© foto-sicht.de

Thomas Sauermann

Thomas Sauermann moderiert seit über 25 Jahren diverse Veranstaltungsformate in den Bereichen Industrie, Wirtschaft und Politik. Im Technologie-Umfeld widmete er sich bereits unterschiedlichsten Themen – darunter Robotik, Web3 und Blockchain und die Frage, welche Auswirkungen aktuelle technologische Entwicklungen auf die Gesellschaft von morgen haben. Nach dem Leitsatz „so einfach wie möglich und so komplex wie nötig“ stellt der gebürtige Berliner Expertinnen und Experten neugierig Fragen, geht Entwicklungen auf den Grund und vermittelt auch schwierige Zusammenhänge prägnant und unterhaltsam.

Keynote

Profilbild Prof. Dr. Nicole Krämer
© privat

Prof. Dr. Nicole Krämer

Nicole Krämer ist Professorin für Sozialpsychologie, Medien und Kommunikation an der Universität Duisburg-Essen und Co-Sprecherin des Research Centers „Trustworthy Data Science and Security“. Sie schloss 2001 ihre Dissertation an der Universität zu Köln ab und habilitierte 2006 an der Universität zu Köln zur sozialen Wirkung virtueller Assistenten. In ihrer Forschung fokussiert sie sowohl sozial- und medienpsychologische Aspekte der Mensch-Technik-Interaktion als auch der computervermittelten Interaktion. Sie leitet mehrere Forschungsprojekte zur Meinungsbildung in sozialen Medien, den gesellschaftlichen Auswirkungen Künstlicher Intelligenz sowie zu psychologischen Aspekten von Privatheit.

Portraitbild Prof Dr. Stefan Kopp
© Mike-Dennis Müller / www.mdm.photo

Prof. Dr. Stefan Kopp

Stefan Kopp ist Professor für Informatik und Leiter der Arbeitsgruppe „Kognitive Systeme und soziale Interaktion“ an der Technischen Fakultät der Universität Bielefeld. Er ist Ko-Koordinator des Forschungszentrums „Cognitive Interaction Technology“ (CITEC) und Mitglied verschiedener Forschungsverbünde (SFB 318, CoAI, it’s OWL, CoR-Lab). Nach Studium und Promotion in Bielefeld und Aufenthalten in den USA und am Zentrum für Interdisziplinäre Forschung (ZiF), erforscht er nun die kognitiven und interaktiven Mechanismen von sozialer Interaktion, Kommunikation und Kooperation und arbeitet an der Übertragung derartige Fähigkeiten auf intelligente technische Systeme, die neue Formen von Assistenz und Kooperation zwischen Mensch und Maschine ermöglichen. Dies hat er in verschiedenen Anwendungsgebieten und mit unterschiedlichsten Nutzer*innengruppen (von Vorschulkindern bis älteren Menschen mit Einschränkungen) angewandt und erprobt.

Moderation Breakout-Session

Profilbild Ana Müller
© privat

Ana Müller

Ana Müller ist Leiterin der Forschungsgruppe Sociotechnical AI am Cologne Cobots Lab der Technischen Hochschule Köln. Während ihres Masterstudiums der Soziologie an der RWTH Aachen wurde ihr Interesse an der interdisziplinären Erforschung von Mensch-Technik-Interaktionen geweckt. Heute widmet sie sich mit großer Leidenschaft der Forschung und Entwicklung im Bereich der sozialen Robotik und Künstlichen Intelligenz. In ihrer Dissertation untersucht sie Erfolgsfaktoren und Herausforderungen, die in der Interaktion zwischen KI-basierten Robotern und Gruppen von Menschen im öffentlichen Raum entstehen.

Profilbild Christioph Bensch TH Köln
© privat

Christoph Bensch

Christoph Bensch ist Absolvent des Masterstudiengangs Artificial Intelligence an der Maastricht University mit einem Schwerpunkt in Natural Language Processing. Nach einer Tätigkeit als Data Scientist in der Wirtschaft vertieft er heute als wissenschaftlicher Mitarbeiter an der Technischen Hochschule Köln seine Forschung und Entwicklung im Bereich des interlingualen Wissensmanagements in Dialogsystemen. In seiner Dissertation untersucht er die Auswirkungen von Wissensmanagement auf die Präzision und die crosslingualen Fähigkeiten von Large Language Modellen.

Profilbild Alexander Fels
© Alexander Fels | SpeechCare GmbH

Alexander Fels

Alexander Fels ist seit Juni 2020 bei der SpeechCare GmbH als Softwareentwickler mit dem Schwerpunkt Android beschäftigt. Für das HiSSS-Projekt hat er die Projektleitung übernommen und kümmert sich um die Programmierung der App und die Kommunikation mit den Verbundpartnern.

Profilbild Mira Schielke
© privat

Mira Schielke

Seit 2019 ist Mira Schielke bei der MediaInterface GmbH als Entwicklerin und Data Scientist tätig. Neben der Datenanalyse entwickelt sie gemeinsam mit ihrem Team Sprachverarbeitungstechnologien, die in den Produkten verwendet werden. Dabei greift sie auf ein interdisziplinäres Skillset zurück, das sie durch ein Studium der Kommunikationswissenschaft und Anglistik in Erfurt sowie einen Master in Informatik für Geistes- und Sozialwissenschaftler an der TU Chemnitz aufbauen konnte.

Profilbild Jens Blüthgen
© privat

Jens Blüthgen

Dipl. Wirtschafts-Informatiker (FH) Jens Blüthgen ist seit 2018 Lead Developer bei der MediaInterface GmbH, welche medizinische Dokumentationsprozesse digitalisiert und zu den führenden Anbietern digitaler Sprachverarbeitungs- und Dokumentationslösungen für das Gesundheitswesen in Deutschland, Österreich und der Schweiz zählt. Er entwickelt mit seinem Team Verbesserungen und Erneuerungen im Bereich der Spracherkennung und Textverarbeitung für die Produkte MIRA medical und SpeaKING Dictat.

Podium "Auf ein Wort"

Profilbild Prof. Dr. Petra Grimm
© Radmila Dier

Prof. Dr. Petra Grimm

Prof. Dr. Petra Grimm ist seit 1998 Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien (Stuttgart). Sie ist Leiterin des Instituts für Digitale Ethik (IDE) und Ethikbeauftragte der Hochschule der Medien. Ihre Forschungsschwerpunkte sind „Digitalisierung der Gesellschaft“, „Ethik der KI und Robotik“, „Narrative Ethik“ und „Mediennutzung von Kindern und Jugendlichen“. Hierzu hat sie zahlreiche Publikationen veröffentlicht und Forschungsprojekte durchgeführt. Ihr Lehrgebiet ist Digitale Ethik und Narrative Medienforschung in Master- und Bachelor-Studiengängen. Sie ist (Mit-)Herausgeberin der Schriftenreihe Medienethik und der Schriftenreihe Daten, Recht und Digitale Ethik. Sie ist u.a. Mitglied im Baden-Württemberg Center of Applied Research (BW-CAR) und der Deutschen Gesellschaft für Publizistik (Fachgruppe Kommunikations- und Medienethik).

Prof. Dr. Chris Biemann
© Universität Hamburg/ Mina Esfandiari

Prof. Dr. Chris Biemann

Prof. Dr. Chris Biemann ist seit 2016 Professor für Sprachtechnologie am Fachbereich Informatik und seit 2021 Direktor des House of Computing & Data Science, einer zentralen Einheit für die digitale Transformation der Wissenschaft, beides an der Exzellenzuniversität Hamburg. Er ist Erstautor von „Wissensrohstoff Text“, des einzigen deutschen Lehrbuchs zum Thema Text Mining, leitet zahlreiche Forschungsprojekte in der Grundlagenforschung und im interdisziplinären Transfer, und publiziert mit seiner Arbeitsgruppe regelmäßig auf internationalen Top-Konferenzen und Journalen im Bereich Natürliche Sprachverarbeitung und Computerlinguistik.

Profilbild Dr. Mona Späth
© neolexon/ Limedix GmbH

Dr. Mona Späth

Dr. Mona Späth ist akademische Sprachtherapeutin und promovierte in Phonetik und sprachliche Kommunikation an der Ludwig-Maximilians-Universität München. Aus der sprachtherapeutischen Praxis und ihrer Forschungstätigkeit an der LMU München konzipierte sie das neolexon Therapiesystem für Menschen mit Hirnschädigung. Als Geschäftsführerin und Gründerin der Limedix GmbH entwickelt sie gemeinsam mit ihrem Team digitale Anwendungen für die Sprachtherapie. Ihre App neolexon Aphasie ist die einzige logopädische App, die als Digitale Gesundheitsanwendung (DiGA) zugelassen und von allen gesetzlichen Krankenkassen in Deutschland erstattet wird.

Profilbild Prof. Dr. Tobias Bocklet
© Bocklet / TH Nürnberg

Prof. Dr. Tobias Bocklet

Prof. Dr. Tobias Bocklet promovierte 2013 über den Einsatz von Sprach- und Sprechererkennung zur medizinischen Diagnostik, bei dem das Sprachsignal untersucht wird, um Rückschlüsse auf unterschiedliche Krankheitsbilder zu erhalten. Von 2013 bis zu seiner Berufung im Oktober 2019 auf die Professur für Maschinelles Lernen an der Technischen Hochschule Nürnberg Georg-Simon-Ohm war er bei Intel für die Entwicklung von Deep Learning-Systemen auf eingebetteten Systemen im Bereich automatischer Sprach- und Audioverarbeitung verantwortlich. 2021 gründete er das KI-Zentrum der Technischen Hochschule Nürnberg mit. In seiner Forschung befasst sich Professor Bocklet mit der Erkennung und Verarbeitung natürlicher Sprache, sowie dem Einsatz des Maschinellen Lernens in industriellen und betriebswirtschaftlichen Anwendungen. Im Bereich der Sprachverarbeitung fokussiert er sich auf die paralinguistische Analyse. Dabei wird das Sprachsignal automatisch auf nonverbale Inhalte untersucht, um Rückschlüsse auf die Sprechenden zuzulassen (z.B. Alter, Geschlecht, Dialekt, Gesundheitszustand).

Graphic Recording

Portraitbild Johanna Benz Graphic Recording
© Privat

Johanna Benz

Johanna Benz arbeitet als graphic recording artist und übersetzt Vorträge und Gespräche simultan in Bilder. Zusammen mit Tiziana Beck hat sie graphicrecording.cool vor 10 Jahren gegründet und entwickelt individuelle grafische Aufzeichnungsformate für Konferenzen, Workshops, Symposien oder performative Events. Durch den Live-Zeichnungsprozess illustriert und kommentiert sie sowohl Fakten als auch subjektive Bilder mit dem Ziel, neue Verbindungen zwischen visueller und angewandter Kunst, Wissenschaft, Forschung und Bildung herzustellen. Johanna Benz lebt mit ihrer Familie in Leipzig.

Externe Beobachter

Profilbild Marcus Hammerschmitt
© C. Einsele

Marcus Hammerschmitt

Marcus Hammerschmitt, geb. 1967 in Saarbrücken. Schriftsteller, Journalist, Fotograf. Bisher 23 Bücher (darunter Romane, Erzählungen, Jugendromane, Essays, Gedichte) innerhalb und außerhalb der Fantastik. Zuletzt „Rom“ (Fantastische Erzählung, Schiler & Mücke, Berlin u. Tübingen, 2021) und „Halbdunkles Licht“ (Gedichte, Schiler & Mücke, Berlin u. Tübingen, 2022). Lebt heute in Schleswig-Holstein.