© Adobe/annebel146

Ich, Zukunft und digitale Sprachverarbeitung

Zusammenfassung

Die Veranstaltung „Ich, Zukunft und digitale Sprachverarbeitung“ hat am 8. November 2023 stattgefunden.

Beim siebten Stopp der virtuellen BMBF Forschungstour „Miteinander durch Innovation“ zeigten Forschende Potenziale und Grenzen von digitaler Sprachverarbeitung auf. In den moderierten Diskussionen erörterten sie zudem, ob und wie es mithilfe von Integrierter Forschung gelingen kann, digitale Sprachverarbeitung im Sinne der Anwenderinnen und Anwender weiterzuentwickeln. Auch kritische Fragen zu Datenschutz und Ethik spielten eine Rolle.

Die Aufzeichnungen zu den einzelnen Programmpunkten finden Sie in unserem Downloadbereich.

Videos

Keynote

Video abspielen

Diskussion

Video abspielen

Externe Beobachter

Video abspielen

BMBF Begrüßung

Digitale Sprachverarbeitung ist nicht nur für die Forschung, sondern auch für die Nutzenden ein sehr wichtiges Thema. Denn sie erlaubt Menschen eine der wahrscheinlich intuitivsten Formen der Technik-Interaktion: Das Sprechen. Und so eröffnen digitale Sprachverarbeitungssysteme sogar Personen, die technisch nicht bewandert sind, einen Zugang zu Technologie.

Für das BMBF ist es entscheidend, dass der Mensch bei allen Technologieentwicklungen stets im Mittelpunkt steht. Daher wollen wir das Themenfeld aus unterschiedlichen Perspektiven beleuchten und diskutieren, wie man Technologie verantwortungsvoll weiterentwickeln kann. Wir thematisieren Chancen aber auch Risiken. Dabei steht nicht allein die Frage nach datenschutzrechtlichen Bedenken im Vordergrund. Uns geht es auch um die grundsätzliche Frage, was solche Systeme eigentlich können dürfen.

Für unser Referat ist digitale Sprachverarbeitung ein Querschnittsthema. Wir haben keine dezidierte Förderlinie, die sich explizit mit der Forschung zu diesem Thema befasst. Vielmehr gibt es unter unseren Förderprojekten zahlreiche Einzelvorhaben, die hierzu in ganz unterschiedliche Richtungen forschen. Da sich unser Referat inhaltlich den Bereichen „Gesundheit“ und „Lebensqualität“ widmet, haben die von uns geförderten Forschungsprojekte, in denen digitale Sprachverarbeitung eine Rolle spielt, oftmals einen medizinischen Fokus.

Katrin Nostadt, Referentin im Referat 617 „Interaktive Technologien für Gesundheit und Lebensqualität“, Bundesministerium für Bildung und Forschung (BMBF)

Keynote

Prof. Dr. Nicole Krämer von der Universität Duisburg Essen und Prof. Dr. Stefan Kopp von der Universität Bielefeld befassen sich in Ihrer Forschungsarbeit seit mehr als 20 Jahren – teilweise gemeinsam – mit dem Thema „interaktive Sprachtechnologien“. Prof. Krämer als Sozialpsychologin und Prof. Kopp als Informatiker beleuchten digitale Sprachverarbeitung in ihrer gemeinsamen Keynote daher nicht nur von der technischen Seite, sondern auch im Hinblick auf deren Auswirkungen auf den Menschen.

Sprachbasierte Technik-Interaktion war laut Prof. Kopp immer schon ein wichtiges Ziel für den Menschen. Sie arbeiten daher seit Jahren an der Entwicklung entsprechender Dialogsysteme, die über die Steuerung von Computern über Tastaturen, Mäusen oder Touchscreens hinausgehen. Seit 2017 seien bei der Spracherkennung, also der technischen Möglichkeit, aus akustischen Signalen Sprache zu extrahieren, unglaubliche Fortschritte erzielt worden. Im nächsten Schritt müssten die Interaktionsfähigkeiten der Systeme verbessert werden. Prof. Kopp berichtet vom Forschungsprojekt Kompass. Die in diesem Projekt forschenden Wissenschaftlerinnen und Wissenschaftler haben Spracherkennungssysteme mit Menschen mit kognitiven Einschränkungen erprobt. Größte Herausforderung war das Erkennen und Herausfiltern von Sprachbefehlen.

Frau Prof. Dr. Krämer warf einen psychologischen Blick auf digitale Sprachsysteme und informierte über das interdisziplinäre Projekt IMPACT. In diesem Projekt untersuchte sie mit ihrem Team die psychosozialen Auswirkungen der Nutzung von Sprachassistenten. Die Forschenden stellten sich die Fragen, was die Menschen über die dahinterstehende Technik wissen, ob und wie sich ihr Kommunikationsverhalten im Laufe der Nutzung verändert und ob Sprachassistenten nach einer Zeit als Freunde oder Familienmitglieder wahrgenommen werden. Die Forschungsergebnisse zeigten Prof. Krämer, dass beim Technikverstehen der größte Handlungsbedarf besteht. Vielen Nutzenden sei der Eingriff in ihre Privatsphäre überhaupt nicht bewusst. Da Eltern mit ihren Kinder daher auch nicht über die technischen Hintergründe reden würden, hätten Kinder keine Hemmungen, Sprachassistenten ihre Geheimnisse anzuvertrauen. Das Kommunikationsverhalten mit den Systemen sei und bleibe im sozial erwünschten Bereich. Trotzdem werde keine Beziehung zum Gerät aufgebaut: Verschwindet es, vermissen die Kinder es nicht. Sprachassistenten dienten daher nicht als langfristiger Ersatz für sozialen Kontakt. Sie würden auch nicht aus Langeweile angesprochen. Das läge Prof. Krämer zufolge an der mangelnden Interaktivität.

Prof. Krämer und Prof. Kopp zogen das Fazit, das intelligente Sprachtechnologien vielfältige Effekte haben, die untersucht, verstanden, moderiert und beim Systemdesign berücksichtigt werden müssten. Aber nicht nur während Design und Entwicklung, sondern auch während der Anwendung müssten technische und empirische Disziplinen zusammenarbeiten. Schlüsselherausforderung für technische Systeme und Conversational A.I. sei, dass komplexe sprachliche Interaktionen einen „quasi-sozialen Interaktionsmodus“ für ihre Effektivität und Flexibilität schufen und bräuchten.

Podiumsdiskussion "Auf ein Wort"

In der Podiumsdiskussion „Auf ein Wort“ ging es um mögliche Anwendungsbereiche für digitale Sprachverarbeitung in der Zukunft.

Prof. Dr. Tobias Bocklet von der Universität Nürnberg ist Spezialist für paralinguistische Analyse. Dahinter steht die Arbeit mit den Informationen, die Menschen beim Sprechen über den Inhalt des gesprochenen Wortes hinaus übermitteln: Das sind etwa Faktoren wie Alter, Geschlecht und emotionaler Zustand. Prof. Bocklet versucht mit seinem Team, diese Aspekte technisch auszulesen und zur Früherkennung von Parkinson, Demenz und Depression zu nutzen. Ziel sei es, dass Spracherkennungssysteme eine Art Vorscreening übernehmen, damit Ärztinnen und Ärzte möglichst früh mit einer Therapie zur Verlangsamung des Erkrankungsprozesses beginnen könnten. Auch zur Erkennung von Sprachentwicklungsstörungen bei Kindern ließe sich die Technologie nutzen. Großer Nachteil der Spracherkennungssysteme sei ihr großer Bedarf an gelabelten Daten, die in der gewünschten Fülle oftmals nicht vorlägen.

Dr. Mona Späth, Geschäftsführerin der Limedix GmbH, entwickelt Logopädie-Apps zur Unterstützung von Therapeutinnen und Therapeuten sowie von Patientinnen und Patienten. Für solche digitalen Assistenten gebe es großen Bedarf, da immer weniger Spezialistinnen und Spezialisten für immer mehr betroffenen Menschen verblieben. Dr. Späth zufolge seien wir bei der Spracherkennung jedoch noch am Anfang, denn es sei technisch extrem schwierig, Sprachproduktion zu erkennen und zu bewerten, wenn eine Sprachstörung vorliege. Jedoch sei gerade in der Logopädie eine hohe Spracherkennungsrate essentiell für den Therapieerfolg. Gleichzeitig gibt Dr. Späth zu bedenken, dass digitale Therapieassistenz auf dem Vormarsch und bei der Datenauswertung auch oft besser als der Mensch sei. Jedoch sollte das Menschliche einer Therapie auf jeden Fall erhalten bleiben.

Die Ethikerin Prof. Dr. Petra Grimm, Hochschule der Medien, Stuttgart, betonte die Notwendigkeit, die Risiken der digitalen Sprachverarbeitung einzuteilen in solche für einzelne Individuen und solche für die Gesellschaft als Gesamtheit. Sie stellt zum einen die Frage, wie es eine Gesellschaft verträgt, wenn Inhalte (z. B. journalistische Texte) oder Personen (synthetisierte Stimmen/voice cloning) imitiert sind. Zum anderen gibt sie zu bedenken, welche schädlichen Auswirkungen Sprachverarbeitung auf das Individuum haben können (z. B. durch Desinformation oder Betrug). Was passiere mit vulnerablen Gruppen? Was sei mit sprachlichen Randgruppen?

Prof. Grimm zufolge spiegelt Sprachassistenz die gesellschaftlichen Werte derjenigen Daten wider, auf denen sie basiere. Daher würden mehr Systeme gebraucht, die „Ethics by Design“-Aspekte und Datenschutzrechte berücksichtigten. Solche Alternativmodelle könnten dann z. B. auch Menschen mit Medienkompetenz einen Mehrwert bieten. Sprachverarbeitung habe aber auch eine politische Dimension: So müsse z. B. der AI Act Anbieter regulieren, die auf dem europäischen Markt agieren.

Inzwischen sei man sich einig, dass ethische Standards gebraucht werden, so Prof. Grimm. Sprachverarbeitung werde alle Lebensbereiche einnehmen, weil sie durch Kostenersparnis einen ökonomischen Nutzen verspreche. Sie sei effizienter, zielgruppenspezifischer, multilingual und setze neue Standards in der Bildung. Trotzdem oder gerade deshalb solle sie nur zum Nutzen und nicht zum Schaden des Menschen eingesetzt werden. Persönlichkeitsrechte gelte es zu schützen, Anonymisierung und Unabhängigkeit müssten realisiert werden. Nicht nur Technikerinnen und Techniker, sondern auch Nutzende müssten in die Entwicklung einbezogen werden. Textkompetenz, Lernen und eigenes Denken dürften dabei nicht auf der Strecke bleiben. Diese Überlegungen könnten Impulse für neue Technikentwicklungen liefern.

Nutzenden kämen die jüngsten Neuerungen bei der digitalen Sprachverarbeitung wie ein riesiger Sprung nach vorne vor, gibt Prof. Dr. Chris Biemann von der Universität Hamburg zu. Aber das liege daran, dass technische Systeme erst öffentliche Aufmerksamkeit erlangten, wenn sie signifikante Informationen böten und nutzbar seien. Die Kernentwicklungen hätten bereits in den 1980er- und 1990er-Jahren stattgefunden. Anschließend hätte es große Fortschritte im neuronalen Lernen und der Transformerarchitektur gegeben. 2018 und 2019 seien dann die ersten Probleme mit Bias zu Tage getreten, die es immer noch gelte, in den Griff zu bekommen.

Digitale Sprachverarbeitung werde sich Prof. Biemann zufolge nicht nur im therapeutischen Umfeld, sondern in allen Lebensbereichen durchsetzen: Sie könne nicht nur Arztbriefe analysieren, sondern auch z. B. Rechtsgutachten verfassen, journalistische Recherchen übernehmen oder wissenschaftliches Material strukturieren. Auch sei entwicklungstechnisch noch kein Plateau erreicht. Es gelte jedoch in der nächsten Zeit, verstärkt die Grenzen der Technologie kennenzulernen und den Datenschutz zu verbessern. Ein wichtiger qualitativer Unterschied zwischen Menschen und Technik sei, dass Sprachassistenten keine größeren Zusammenhänge erkennen könnten. Und herzhaft lachen könnten sie auch nicht.

  • Agenda

    8:30 – 9:00 Uhr Virtuelles Einfinden

    9:00 – 9:15 Uhr Begrüßung

    • Katrin Nostadt, Referat 617 „Interaktive Technologien für Gesundheit
      und Lebensqualität“, Bundesministerium für Bildung und Forschung
      (BMBF)

    9:15 – 9:50 Uhr Keynote „Ich, Zukunft und digitale Sprachverarbeitung“

    9:50 – 10:00 Uhr Pause

    10:00 – 10:45 Uhr AUF EIN WORT

    10:45 – 10:55 Uhr Pause

    10:55 – 12:05 Uhr Parallele Breakout-Sessions

    12:05 – 12:20 Uhr Pause

    12:20 – 12:50 Uhr Flashback

    12:50 – 13:00 Uhr Abschluss

    • Katrin Nostadt, Referat 617 „Interaktive Technologien für Gesundheit
      und Lebensqualität“, Bundesministerium für Bildung und Forschung
      (BMBF)

    Download: Detailierte Agenda

Bundesministerium für Bildung und Forschung

© Privat

Katrin Nostadt

Katrin Nostadt ist seit 2005 Referentin im Bundesministerium für Bildung und Forschung, wo sie sich u.a. für die Zusammenarbeit mit China, für Klimaforschung in Afrika und Fachhochschulförderung und als deutsche Delegierte in verschiedenen europäischen Konsortien eingesetzt hat. Seit 2014 ist sie im Referat „Interaktive Technologien für Gesundheit und Lebensqualität“ tätig. Katrin Nostadt ist Magister der Germanistik und Anglistik mit Schwerpunkt auf interkulturelle Kommunikation und verfügt über einen MBA in European Asian Management. Sie lehrte Germanistik an der Sun Yat Sen Universität in Guangzhou, China, und engagierte sich als Leiterin des DAAD-Informationszentrums für deutsches Hochschulmarketing in Südchina.

Moderation

Profilbild Thomas Sauermann
© foto-sicht.de

Thomas Sauermann

Thomas Sauermann moderiert seit über 25 Jahren diverse Veranstaltungsformate in den Bereichen Industrie, Wirtschaft und Politik. Im Technologie-Umfeld widmete er sich bereits unterschiedlichsten Themen – darunter Robotik, Web3 und Blockchain und die Frage, welche Auswirkungen aktuelle technologische Entwicklungen auf die Gesellschaft von morgen haben. Nach dem Leitsatz „so einfach wie möglich und so komplex wie nötig“ stellt der gebürtige Berliner Expertinnen und Experten neugierig Fragen, geht Entwicklungen auf den Grund und vermittelt auch schwierige Zusammenhänge prägnant und unterhaltsam.

Keynote

Profilbild Prof. Dr. Nicole Krämer
© privat

Prof. Dr. Nicole Krämer

Nicole Krämer ist Professorin für Sozialpsychologie, Medien und Kommunikation an der Universität Duisburg-Essen und Co-Sprecherin des Research Centers „Trustworthy Data Science and Security“. Sie schloss 2001 ihre Dissertation an der Universität zu Köln ab und habilitierte 2006 an der Universität zu Köln zur sozialen Wirkung virtueller Assistenten. In ihrer Forschung fokussiert sie sowohl sozial- und medienpsychologische Aspekte der Mensch-Technik-Interaktion als auch der computervermittelten Interaktion. Sie leitet mehrere Forschungsprojekte zur Meinungsbildung in sozialen Medien, den gesellschaftlichen Auswirkungen Künstlicher Intelligenz sowie zu psychologischen Aspekten von Privatheit.

Portraitbild Prof Dr. Stefan Kopp
© Mike-Dennis Müller / www.mdm.photo

Prof. Dr. Stefan Kopp

Stefan Kopp ist Professor für Informatik und Leiter der Arbeitsgruppe „Kognitive Systeme und soziale Interaktion“ an der Technischen Fakultät der Universität Bielefeld. Er ist Ko-Koordinator des Forschungszentrums „Cognitive Interaction Technology“ (CITEC) und Mitglied verschiedener Forschungsverbünde (SFB 318, CoAI, it’s OWL, CoR-Lab). Nach Studium und Promotion in Bielefeld und Aufenthalten in den USA und am Zentrum für Interdisziplinäre Forschung (ZiF), erforscht er nun die kognitiven und interaktiven Mechanismen von sozialer Interaktion, Kommunikation und Kooperation und arbeitet an der Übertragung derartige Fähigkeiten auf intelligente technische Systeme, die neue Formen von Assistenz und Kooperation zwischen Mensch und Maschine ermöglichen. Dies hat er in verschiedenen Anwendungsgebieten und mit unterschiedlichsten Nutzer*innengruppen (von Vorschulkindern bis älteren Menschen mit Einschränkungen) angewandt und erprobt.

Moderation Breakout-Session

Profilbild Ana Müller
© privat

Ana Müller

Ana Müller ist Leiterin der Forschungsgruppe Sociotechnical AI am Cologne Cobots Lab der Technischen Hochschule Köln. Während ihres Masterstudiums der Soziologie an der RWTH Aachen wurde ihr Interesse an der interdisziplinären Erforschung von Mensch-Technik-Interaktionen geweckt. Heute widmet sie sich mit großer Leidenschaft der Forschung und Entwicklung im Bereich der sozialen Robotik und Künstlichen Intelligenz. In ihrer Dissertation untersucht sie Erfolgsfaktoren und Herausforderungen, die in der Interaktion zwischen KI-basierten Robotern und Gruppen von Menschen im öffentlichen Raum entstehen.

Profilbild Christioph Bensch TH Köln
© privat

Christoph Bensch

Christoph Bensch ist Absolvent des Masterstudiengangs Artificial Intelligence an der Maastricht University mit einem Schwerpunkt in Natural Language Processing. Nach einer Tätigkeit als Data Scientist in der Wirtschaft vertieft er heute als wissenschaftlicher Mitarbeiter an der Technischen Hochschule Köln seine Forschung und Entwicklung im Bereich des interlingualen Wissensmanagements in Dialogsystemen. In seiner Dissertation untersucht er die Auswirkungen von Wissensmanagement auf die Präzision und die crosslingualen Fähigkeiten von Large Language Modellen.

Profilbild Alexander Fels
© Alexander Fels | SpeechCare GmbH

Alexander Fels

Alexander Fels ist seit Juni 2020 bei der SpeechCare GmbH als Softwareentwickler mit dem Schwerpunkt Android beschäftigt. Für das HiSSS-Projekt hat er die Projektleitung übernommen und kümmert sich um die Programmierung der App und die Kommunikation mit den Verbundpartnern.

Profilbild Mira Schielke
© privat

Mira Schielke

Seit 2019 ist Mira Schielke bei der MediaInterface GmbH als Entwicklerin und Data Scientist tätig. Neben der Datenanalyse entwickelt sie gemeinsam mit ihrem Team Sprachverarbeitungstechnologien, die in den Produkten verwendet werden. Dabei greift sie auf ein interdisziplinäres Skillset zurück, das sie durch ein Studium der Kommunikationswissenschaft und Anglistik in Erfurt sowie einen Master in Informatik für Geistes- und Sozialwissenschaftler an der TU Chemnitz aufbauen konnte.

Profilbild Jens Blüthgen
© privat

Jens Blüthgen

Dipl. Wirtschafts-Informatiker (FH) Jens Blüthgen ist seit 2018 Lead Developer bei der MediaInterface GmbH, welche medizinische Dokumentationsprozesse digitalisiert und zu den führenden Anbietern digitaler Sprachverarbeitungs- und Dokumentationslösungen für das Gesundheitswesen in Deutschland, Österreich und der Schweiz zählt. Er entwickelt mit seinem Team Verbesserungen und Erneuerungen im Bereich der Spracherkennung und Textverarbeitung für die Produkte MIRA medical und SpeaKING Dictat.

Podium "Auf ein Wort"

Profilbild Prof. Dr. Petra Grimm
© Radmila Dier

Prof. Dr. Petra Grimm

Prof. Dr. Petra Grimm ist seit 1998 Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien (Stuttgart). Sie ist Leiterin des Instituts für Digitale Ethik (IDE) und Ethikbeauftragte der Hochschule der Medien. Ihre Forschungsschwerpunkte sind „Digitalisierung der Gesellschaft“, „Ethik der KI und Robotik“, „Narrative Ethik“ und „Mediennutzung von Kindern und Jugendlichen“. Hierzu hat sie zahlreiche Publikationen veröffentlicht und Forschungsprojekte durchgeführt. Ihr Lehrgebiet ist Digitale Ethik und Narrative Medienforschung in Master- und Bachelor-Studiengängen. Sie ist (Mit-)Herausgeberin der Schriftenreihe Medienethik und der Schriftenreihe Daten, Recht und Digitale Ethik. Sie ist u.a. Mitglied im Baden-Württemberg Center of Applied Research (BW-CAR) und der Deutschen Gesellschaft für Publizistik (Fachgruppe Kommunikations- und Medienethik).

Prof. Dr. Chris Biemann
© Universität Hamburg/ Mina Esfandiari

Prof. Dr. Chris Biemann

Prof. Dr. Chris Biemann ist seit 2016 Professor für Sprachtechnologie am Fachbereich Informatik und seit 2021 Direktor des House of Computing & Data Science, einer zentralen Einheit für die digitale Transformation der Wissenschaft, beides an der Exzellenzuniversität Hamburg. Er ist Erstautor von „Wissensrohstoff Text“, des einzigen deutschen Lehrbuchs zum Thema Text Mining, leitet zahlreiche Forschungsprojekte in der Grundlagenforschung und im interdisziplinären Transfer, und publiziert mit seiner Arbeitsgruppe regelmäßig auf internationalen Top-Konferenzen und Journalen im Bereich Natürliche Sprachverarbeitung und Computerlinguistik.

Profilbild Dr. Mona Späth
© neolexon/ Limedix GmbH

Dr. Mona Späth

Dr. Mona Späth ist akademische Sprachtherapeutin und promovierte in Phonetik und sprachliche Kommunikation an der Ludwig-Maximilians-Universität München. Aus der sprachtherapeutischen Praxis und ihrer Forschungstätigkeit an der LMU München konzipierte sie das neolexon Therapiesystem für Menschen mit Hirnschädigung. Als Geschäftsführerin und Gründerin der Limedix GmbH entwickelt sie gemeinsam mit ihrem Team digitale Anwendungen für die Sprachtherapie. Ihre App neolexon Aphasie ist die einzige logopädische App, die als Digitale Gesundheitsanwendung (DiGA) zugelassen und von allen gesetzlichen Krankenkassen in Deutschland erstattet wird.

Profilbild Prof. Dr. Tobias Bocklet
© Bocklet / TH Nürnberg

Prof. Dr. Tobias Bocklet

Prof. Dr. Tobias Bocklet promovierte 2013 über den Einsatz von Sprach- und Sprechererkennung zur medizinischen Diagnostik, bei dem das Sprachsignal untersucht wird, um Rückschlüsse auf unterschiedliche Krankheitsbilder zu erhalten. Von 2013 bis zu seiner Berufung im Oktober 2019 auf die Professur für Maschinelles Lernen an der Technischen Hochschule Nürnberg Georg-Simon-Ohm war er bei Intel für die Entwicklung von Deep Learning-Systemen auf eingebetteten Systemen im Bereich automatischer Sprach- und Audioverarbeitung verantwortlich. 2021 gründete er das KI-Zentrum der Technischen Hochschule Nürnberg mit. In seiner Forschung befasst sich Professor Bocklet mit der Erkennung und Verarbeitung natürlicher Sprache, sowie dem Einsatz des Maschinellen Lernens in industriellen und betriebswirtschaftlichen Anwendungen. Im Bereich der Sprachverarbeitung fokussiert er sich auf die paralinguistische Analyse. Dabei wird das Sprachsignal automatisch auf nonverbale Inhalte untersucht, um Rückschlüsse auf die Sprechenden zuzulassen (z.B. Alter, Geschlecht, Dialekt, Gesundheitszustand).

Graphic Recording

Portraitbild Johanna Benz Graphic Recording
© Privat

Johanna Benz

Johanna Benz arbeitet als graphic recording artist und übersetzt Vorträge und Gespräche simultan in Bilder. Zusammen mit Tiziana Beck hat sie graphicrecording.cool vor 10 Jahren gegründet und entwickelt individuelle grafische Aufzeichnungsformate für Konferenzen, Workshops, Symposien oder performative Events. Durch den Live-Zeichnungsprozess illustriert und kommentiert sie sowohl Fakten als auch subjektive Bilder mit dem Ziel, neue Verbindungen zwischen visueller und angewandter Kunst, Wissenschaft, Forschung und Bildung herzustellen. Johanna Benz lebt mit ihrer Familie in Leipzig.

Externe Beobachter

Profilbild Marcus Hammerschmitt
© C. Einsele

Marcus Hammerschmitt

Marcus Hammerschmitt, geb. 1967 in Saarbrücken. Schriftsteller, Journalist, Fotograf. Bisher 23 Bücher (darunter Romane, Erzählungen, Jugendromane, Essays, Gedichte) innerhalb und außerhalb der Fantastik. Zuletzt „Rom“ (Fantastische Erzählung, Schiler & Mücke, Berlin u. Tübingen, 2021) und „Halbdunkles Licht“ (Gedichte, Schiler & Mücke, Berlin u. Tübingen, 2022). Lebt heute in Schleswig-Holstein.