der Podcast zur Digitalen Kunstgeschichte
Im Wissenschaftspodcast #arthistoCast dreht sich alles um die Digitale Kunstgeschichte. Dabei geht es um den Einsatz digitaler Methoden in der kunsthistorischen Forschung, also um die Frage, wie technische Entwicklungen für das Fach genutzt werden können und wie sich die Forschung im Zuge der Digitalisierung verändert hat. In jeder Folge sind Expert*innen aus unterschiedlichen Fach- und Arbeitsbereichen zu Gast, um über ihre Arbeit und ihre Erfahrungen mit digitalen Methoden und Technologien zu sprechen. Dabei geht es nicht nur um gute Lösungsansätze und etablierte Systeme, sondern auch um aktuelle Herausforderungen und Möglichkeiten, die mit der Anwendung digitaler Methoden in der Kunstgeschichte einhergehen. Jacqueline Klusik-Eckert führt die Zuhörer*innen dabei durch den Begriffsdschungel der Technikwelt und hilft, jeder und jedem einen Einstieg in die Themenfelder zu finden. Der Podcast #arthistoCast ist ein Muss für alle, die sich für Kunstgeschichte, Digitalisierung und Technologie interessieren! Der Podcast bietet eine Plattform zur Diskussion aktueller Entwicklungen und Trends in der kunsthistorischen Forschung und vermittelt gleichzeitig ein tieferes Verständnis für die Rolle digitaler Methoden in der Kunstwissenschaft. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben eine Creative Commons Lizenz und können heruntergeladen werden. Du findest sie unter https://heidicon.ub.uni-heidelberg.de#/detail/1738702
In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Linda Freyberg über die Herausforderungen und Potenziale der Wissens- und Datenvisualisierung in der Kunstgeschichte. Obwohl die Beschreibung und Interpretation visueller Systeme ein zentrales Element der Kunstgeschichte sind, fällt es vielen schwer, mit digitalen Visualisierungen umzugehen. Dazu gehört neben dem Interpretieren der Grafiken auch das Verwenden von Wissensvisualisierungen, um komplexes historisches Wissen wie zum Beispiel Objektbiographien darzustellen. Warum verwenden Kunsthistoriker diese Formen der Informationsübermittlung so selten? Fehlt das nötige Wissen oder die richtige Terminologie? Dr. Freyberg erklärt, dass Visualisierungen unterschiedliche Funktionen erfüllen können: explorativ zur Analyse oder interpretativ zur Erklärung. Dabei stellt sich die Frage, was eine effektive und gute Visualisierung ausmacht und ob der Kunstgeschichte eine neue Diagrammatik fehlt, um die Waage zwischen Komplexitätsreduktion und Wissensrepräsentation zu halten. Im Gespräch wird deutlich, dass viele unterschiedliche Expert*innen für die Erstellung von Visualisierungen notwendig sind, da heterogenes, spezifisches Fachwissen benötigt wird: Konzeption, technischer Aufbau und Nutzeroberfläche liegen am besten in der Hand eines interdisziplinär aufgestellten Teams. Viele Visualisierungen sind datengetrieben und darüber hinaus spezifisch für einzelne Projekte konzipiert, was eine Generalisierung mancher Anwendungen nicht möglich macht. Dabei sind Datenvisualisierungen ein mächtiges Kommunikationsmittel, um komplexe Sachverhalte verständlich zu machen. Sie ermöglichen es, Strukturen aufzuzeigen und große Datenmengen zugänglich zu machen. Obwohl diese Fähigkeiten oft als Zukunftskompetenzen gepriesen werden, gehören sie noch nicht zum Repertoire der Kunstgeschichte. Dr. Linda Freyberg zeigt dabei eindrucksvoll, wie Kunsthistoriker*innen zur Entwicklung und Interpretation von Visualisierungen beitragen können und warum man ein tiefes Domänenwissen braucht, um gute Wissensvisualisierungen zu schaffen. Dr. Linda Freyberg ist Wissenschaftlerin am DIPF Leipnitz Institut für Bildungsforschung und Bildungsinformation, Abteilung Bibliothek für Bildungsgeschichtliche Forschung. In ihrer Dissertation „Ikonizität der Information " hat sie sich mit dem epistemischen Potenzial von Bildlichkeit und den unterschiedlichen Ausdrucksformen von Visualisierungen beschäftigt. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 07.08.2024
Dauer: 00:54:27
In dieser Sonderfolge des #arthistoCast sendet Jacqueline Klusik-Eckert live von der virtuellen Podiumsdiskussion mit ihren Gästen Miriam Akkermann, Susanne Kurz und Sonja Thiel, die im Rahmen des 4. Culture Community Plenary von NDFI4Culture am 6. Juni 2024 stattgefunden hat. Unter dem Motto „Generative KI-Modelle und Forschungsdaten: Chancen und Herausforderungen" diskutierte sie mit den Expertinnen die aktuellen Entwicklungen im GLAM-Bereich (Galerien, Bibliotheken, Archive, Museen). Dabei bot das Gespräch wertvolle Einblicke aus dem Bereich Museum, Musikwissenschaft und Forschungsdaten. Ein zentrales Thema war die Frage, wie generative KI-Modelle in der Kulturforschung eingesetzt werden können, ohne die Kontrolle und Transparenz zu verlieren. Es wurde betont, dass es wichtig sei, die technischen Prozesse und die Daten, die hinter diesen Modellen stehen, zu verstehen und zu hinterfragen, um eine aufgeklärte Nutzung zu gewährleisten. Dies verlangt sowohl die Entwicklung passgenauer Modelle als auch die Etablierung benutzerfreundlicher Anwendungen. Das Gespräch beleuchtete die vielseitigen Anwendungsmöglichkeiten von KI-Systemen im Kulturbereich. Ein weiteres zentrales Thema war die Bedeutung von Vertrauen in die Arbeit von Institutionen beim Umgang mit digitalen Objekten, insbesondere im Hinblick auf generierte Medien. Die Diskussion verdeutlichte, dass generative KI-Modelle nicht nur neue Möglichkeiten eröffnen, sondern auch neue Fragen aufwerfen, die einen kritischen Diskurs und eine aufgeklärte Nutzung erfordern. Die Expertinnen forderten eine realistische Betrachtung der Technologie und ihrer Möglichkeiten sowie eine kontinuierliche Reflexion über die ethischen Implikationen ihres Einsatzes. Prof. Dr. Miriam Akkermann ist empirische Musikwissenschaftlerin und hat an der FU Berlin die Ernst-von-Siemens Musikstiftungsprofessur übernommen. Susanne Kurz M.A. ist Dozentin für Medieninformatik und Digital Humanities an der Universität zu Köln. Sonja Thiel M.A. ist freiberufliche Wissenschaftlerin und war als digitaler Katalysator für Künstliche Intelligenz am Badischen Landesmuseum in Karlsruhe tätig. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 03.07.2024
Dauer: 01:08:28
In dieser Sonderfolge des #arthistoCast verlässt Jacqueline Klusik-Eckert das Aufnahmestudio und gibt einen Zusammenschnitt des Forums Digitale Kunstgeschichte wieder, das während des 37. Kongresses für Kunstgeschichte in Erlangen am 16.03.2024 stattfand. Das Forum, von Jacqueline und Peter Bell konzipiert, konzentrierte sich auf die Auswirkungen und Möglichkeiten künstlicher Intelligenz in der Kunstgeschichte. Unter dem Motto "Raum für KI – Bildgeneratoren und Wissensmaschinen. Die KI-Debatte im Fachkontext" waren die drei Gäste Andreas Maier, Roland Meyer und Christian Hümer eingeladen, um mit ihnen aus unterschiedlichen Perspektiven auf die aktuellen Debatten zu schauen. Die Podiumsdiskussion, geprägt von den drei Experten aus den Bereichen Technik, Theorie und Praxis, beleuchtete, wie KI-Verfahren bereits in der Kunstgeschichte angewendet werden und was sie für das Fach bedeuten. Es wurden konkrete Beispiele und laufende Projekte vorgestellt, um ein umfassendes Verständnis der Materie zu fördern. Zudem wurden kritische Fragen zur Zukunft der KI in der Kunstgeschichte gestellt, einschließlich ethischer Überlegungen und der Rolle von KI in der Forschung und Lehre. Diese Episode gibt nicht nur einen Einblick in die Veranstaltung für diejenigen, die nicht teilnehmen konnten, sondern bietet auch einen Startpunkt für weiterführende Diskussionen über die Rolle der KI in der Kunstgeschichte. Im zugehörigen Blogbeitrag findest du zusätzliche Ressourcen und Links zu den Projekten, die während des Forums vorgestellt wurden. Prof. Dr.-Ing. habil. Andeas Maier ist Leiter des Pattern Recognition Labs an der FAU Erlangen-Nürnberg und hat in unterschiedlichen Projekten den Einsatz von Pattern Recognition in der Kunstgeschichte erprobt. Dr. Roland Meyer ist wissenschaftlicher Mitarbeiter am SFB »Virtuelle Lebenswelten« an der Ruhr-Universität Bochum und forscht über die Theorie generierter Bilder und den Einsatz von KI-Verfahren. Dr. Christian Huemer ist Hauptabteilungsleiter des Research Center am Belvedere, Speaker des DArtHist Austria und hat zahlreiche digitale Projekte im Museum betreut. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 01.05.2024
Dauer: 00:59:26
In dieser Folge spricht Jacqueline Klusik-Eckert mit Katrin Glinka und Kilian Heck über die tiefgreifenden Veränderungen und aktuellen Debatten, die digitale Technologien in der Kunstgeschichte hervorgerufen haben. Dabei diskutieren die Gäste die unterschiedlichen Ebenen der Digitalität in der Kunstgeschichte: vom Scannen der Werke bis hin zu konkreten Anwendungen computationeller Verfahren eröffnet sich ein breites Spektrum. Es zeigt sich einmal mehr, wie vielschichtig die Perspektiven auf das Digitale sind. Es wird betont, dass viele in der Kunstgeschichte digitale Technologien noch immer auf die Digitalisierung von Material reduzieren. Die Potentiale digitaler Methoden werden dabei kaum gesehen oder vorschnell abgeurteilt. Unterstützungssysteme im Bereich Information Retrieval, die zu einer steigenden Zugänglichkeit und Auffindbarkeit von Forschungsmaterial sorgen, werden unreflektiert angenommen. Dagegen werden unter vorgehaltender Hand empirisch-statistische Verfahren als intransparent und verflachend abgeurteilt. Einig ist man sich hingegen wieder, wenn es um das Einsatzgebiet Provenienzforschung geht. Doch diese scheinbare Transparenz von etablierten Wissensspeichern muss hinsichtlich der historisch belasteten Beschreibungskategorien hinterfragt werden. Gleiches gilt für die Beschaffenheit der aktuell genutzten technischen Lösungen wie beispielsweise Sammlungsdatenbanken, die aktuell nicht vollumfänglich eine Vielfalt an Interpretationen und die Koexistenz von Widersprüchen ermöglichen. Hinzu kommt noch, dass sich Kunstgeschichtlerinnen und Kunstgeschichtler mit einer zunehmenden Komplexität und Vielfalt von Bildmaterial konfrontiert sehen. Das verlangt eine Anpassung der etablierten Analysemethoden und den Mut, sich außerhalb der traditionellen Komfortzonen zu bewegen. Es wird dafür plädiert, auch Fehler zu akzeptieren und tradierte, vorurteilsbehaftete Wissenssysteme kritisch zu reflektieren. Die Diskussion unterstreicht zudem die Bedeutung einer bildwissenschaftlichen Kompetenz und die anhaltende Notwendigkeit, die Fähigkeiten im Umgang mit modernen, auch KI-generierten Bildern zu schärfen. Schließlich wird auf die Rolle digitaler Technologien bei der Sicherung von Kulturerbe eingegangen. Trotz der Potenziale dieser Ansätze bleibt die Akzeptanz und Integration in die klassische Kunstgeschichte eine Herausforderung. Ob dies auch einer (unbegründeten) Sorge um die eigene Daseinsberechtigung herrührt, muss unbeantwortet bleiben. Es ist im Gespräch jedoch deutlich geworden, dass gerade die Koexistenz klassischer und digitaler Methoden notwendig ist. Denn am Ende haben wir als Wissenschaftlerinnen und Wissenschafler doch das gleiche Ziel: Wissen schaffen. Dr. des. Katrin Glinka ist Kulturwissenschaftlerin und aktuell Head of HCC Data Lab an der Freien Universität Berlin bei der Forschungsgruppe Human-Centered Computing (HCC) . Prof. Dr. Kilian Heck ist Kunsthistoriker und hat den Lehrstuhl für Kunstgeschichte an der Universität Greifswald inne. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 06.03.2024
Dauer: 01:27:35
In dieser Folge spricht Jacqueline Klusik-Eckert mit Julian Stalter über die lange Geschichte der digitalen Kunst und die vielen Akteur*innen dieser Kunstgattung. Die Digitale Kunst hat ihren Ursprung in den 1960er Jahren, als Künstler*innen begannen, Computer als kreatives Werkzeug zu nutzen. Der Durchbruch kam in den 1980er Jahren mit der Verbreitung personalisierter Computer und Software, die es Künstlern ermöglichten, digitale Medien als eigenständige künstlerische Ausdrucksform zu nutzen. Der Blick auf unterschiedliche Kunstwerke zeigt, wie eng die digitale Kunst auch mit der Technikgeschichte verbunden ist, sich aber auch von der Biologie inspiriert ist. Im Blogbeitrag zu dieser Folge findet man eine Liste aller genannter Künstlerinnen und Künstlern. Wo es möglich ist, wurden auch Aufzeichnungen der Werke als Links hinterlegt. Digitale Kunstwerke gehen oft über die traditionelle visuelle Wahrnehmung hinaus und integrieren Klang, Bewegung und Interaktivität. In teils experimentellen Installationen werden die Grenzen der Sinneswahrnehmung ausgelotet. Viele der multidimensionalen Werke fordern nicht nur die kunsthistorische Analyse heraus, sondern werfen auch Fragen nach der Rolle des Publikums und der Interaktion in der Kunst auf. Wichtige Institutionen, die sich mit Digitaler Kunst beschäftigen, sind das ZKM | Zentrum für Kunst und Medien in Karlsruhe, das sich auf die Schnittstelle von Kunst und Technologie konzentriert. Das Ars Electronica Center in Linz widmet sich der Förderung von Kunst und Technologie schon seit mehreren Jahrzehnten. Diese Institutionen und noch einige mehr spielen eine entscheidende Rolle bei der Dokumentation, Ausstellung und Erforschung digitaler Kunst und tragen dazu bei, ihre Anerkennung in der kunsthistorischen Landschaft zu fördern. Trotz ihrer kulturellen Bedeutung und des Einflusses auf zeitgenössische Kunst sind digitale Kunstformen in den kunsthistorischen Lehrplänen oft unterrepräsentiert. Die Debatte darüber, warum diese Gattung in der akademischen Welt nicht ausreichend gewürdigt wird, kreist um Fragen der Materialität, der Zugänglichkeit und der fehlenden Tradition. Die Trennung zwischen Kunst und Technologie sowie die Schwierigkeiten bei der Bewahrung und Ausstellung digitaler Werke sind ebenfalls Themen, die in diesem Kontext diskutiert werden. Julian Stalter M.A. ist Wissenschaftlicher Mitarbeiter im Projekt Reflection-driven Artificial Intelligence in Art History, LMU München und beschäftigt sich in seiner Forschung mit Digitaler Kunst an der Schnittstelle von Naturnachahmung und Bio Art. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 06.02.2024
Dauer: 00:58:38
In der ersten Sonderfolge von #arthistoCast steht die technische Perspektive auf das Erfassen von Kulturgütern im Mittelpunkt. Nachdem Jacqueline Klusik-Eckert in der 10. Folge mit ihren Gästen den kunsthistorischen Blick auf die viel diskutierten Technologien Virtual Reality (VR) und Augmented Reality (AR) geworfen hat, soll nun die technische Perspektive eingenommen werden. Im Gespräch mit Mona Hess von der digitalen Denkmaltechnologie gibt es Einblicke in die technischen Verfahren von Räumen und Objekten. Die technische Erfassung von Kulturgütern erfordert eine Vielzahl von Techniken, darunter aktive (Laserstrahl, Lichtmuster) und passive Sensoren (Kameras), sowie Methoden wie Photogrammetrie und Laserscanverfahren. Dabei werden Begriffe wie Geomatic Engineering, Reality Capture erklärt, und die Vorteile einer optischen, berührungsfreien Aufnahme bei der Erfassung von Räumen und Objekten erläutert. Es zeigt sich dabei deutlich, dass es mit dem Scannen allein nicht getan ist. Neben der Nachbereitung der Daten gehört auch die Langzeitarchivierung zu den aktuellen Herausforderungen. Doch wo können diese vielseitigen Kompetenzen erlernt werden? Da der Bedarf an Fachleuten mit interdisziplinären Kompetenzen zwischen Ingenieurswissenschaften, Informatik, Naturwissenschaften, Materialwissenschaften und Kunstgeschichte stetig wächst, wurde ein eigener Masterstudiengang etabliert. Insgesamt zeigt die Sonderfolge, dass die digitale Kunstgeschichte eine Brücke zwischen verschiedenen Fachrichtungen schlägt. Es wird deutlich, dass die Erfassung und Digitalisierung von Kulturgütern nicht nur kunsthistorisches Interesse bedient, sondern auch technische Innovationen vorantreibt. Der Blick auf die Herausforderungen der Datenverarbeitung und Langzeitarchivierung betont die Notwendigkeit, nicht nur die Erfassungstechniken zu beherrschen, sondern auch die umfassende Verarbeitung und Bewahrung der digitalen Daten im Blick zu haben. Prof. Dr. Mona Hess ist Lehrstuhlinhaberin des Lehrstuhls für Digitale Denkmaltechnologien an der Universität Bamberg. In ihrer Forschung bewegt sie sich an der Schnittstelle von naturwissenschaftlichen Technologien und geisteswissenschaftlichen Fragestellungen. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 22.01.2024
Dauer: 00:35:00
In dieser Folge spricht Jacqueline Klusik-Eckert mit Prof. Dr. Stephan Hoppe und Dr. Matteo Burioni über den Einsatz von Virtual Reality (VR) bei der Erforschung barocker Deckenmalerei. Im Gespräch erhält man Einblick in die unterschiedlichen Abläufe und Kooperationen, die notwendig sind, um diese technischen Möglichkeiten für die Kunstgeschichte nutzbar zu machen. Die Unterhaltung beginnt mit der Grundlagenklärung, die den Begriffen wie Virtual Reality und Augmented Reality Raum gibt. Dabei wird deutlich, wie stark die Entwicklungen in der Kunstgeschichte auch mit der jüngsten Technikgeschichte zusammenhängen. Die Diskussion vertieft sich, indem die Potenziale und Herausforderungen von VR/AR in der Kunstgeschichte ausgelotet werden. Die Vision, historische Schauplätze virtuell auf höchstem wissenschaftlichen Niveau zu erschließen und zugänglich zu machen, wird durch Forschungsprojekte wie dem Akademieprojekt Corpus der barocken Deckenmalerei in Deutschland (CbDD) erprobt. Dabei wird nicht nur die Möglichkeit der Vermittlung von Kunstgeschichte betont, sondern auch der Erkenntnisgewinn durch neue Perspektiven und Forschungsmöglichkeiten im virtuellen Raum. Die Episode wirft auch einen kritischen Blick auf die derzeitige Integration von VR/AR in die Standardpraxis kunsthistorischer Institute. Hierbei wird deutlich, dass trotz vielversprechender Ansätze und Forschungen noch ein erheblicher Weg bevorsteht, bis diese Technologien flächendeckend in der Lehre und Forschung verankert sind. Der Höhepunkt des Gesprächs liegt in einem eindringlichen Appell: Die Kunstgeschichte muss enger mit Disziplinen wie Denkmaltechnologie, Archäologie und Informatik kooperieren. Nur so können die Entwicklung von VR/AR-Räumen und die Verantwortung für die Bewahrung des kulturellen Erbes vorangetrieben werden. Dabei wird betont, dass die Kunstgeschichte nicht nur von diesem Expertenwissen profitieren sollte, sondern auch als Treiber für innovative Entwicklungen fungieren kann. Prof. Dr. Stephan Hoppe ist Professor für Kunstgeschichte mit Schwerpunkt Bayerische Geschichte an der Ludwigs-Maximilian Universität München, ordentliches Mitglied des Instituts für Bayerische Geschichte und Leiter des Gesamtprojektes sowie Vorsitzender des Projektausschusses des Corpus der barocken Deckenmalerei. PD Dr. Matteo Burioni ist Projektkoordinator und Leiter der Arbeitsstelle München des Corpus der barocken Deckenmalerei in Deutschland) an der Ludwigs-Maximilian Universität München. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 03.01.2024
Dauer: 01:06:23
In dieser Folge spricht Jacqueline Klusik-Eckert mit Harald Sack und Holger Simon über den Knowledge Graph und seine Bedeutung für die Kunstgeschichte. Schon jetzt finden sich viele Informationen über Kulturgüter und Geschichte digital im Netz. Datenbanken und Repositories bieten zwar verstärkt Zugang zu Informationen, sind aber oft in isolierten Silos verstreut. Institutionen nutzen unterschiedliche Systeme zur Datenbereitstellung, was zu einer fragmentierten Landschaft führt. Meta-Datenbanken wie Europeana und die Deutsche Digitale Bibliothek versuchen, diese Fragmentierung zu überwinden, aber ihr Erfolg ist begrenzt. Es scheint, als bräuchten wir eine Meta-Meta-Datenbank, um diese Silos zu durchbrechen. Die Grundidee des Internets und das Konzept Linked Open Data (LOD) versprechen hier Abhilfe zu leisten. Die Herausforderung besteht darin, dieses vernetzte Wissen digital abzubilden. Hier kommt der Knowledge Graph ins Spiel. Im Rahmen des NFDI 4 Culture Projekts entsteht ein solcher Wissensgraph. Während in anderen Bereichen die Technologie des Knowledge Graphs schon länger im Einsatz ist – Google hat seit 2012 einen solchen Graphen etabliert –, befindet sich die Kunstgeschichte möglicherweise noch am Anfang dieser Entwicklung. GLAM-Institutionen (Galleries, Libraries, Archives, Museums) haben eine wichtige Rolle bei der Datenbereitstellung, müssen aber auch Anreize für den Austausch schaffen und erhalten. Für die Forschung eröffnet der Knowledge Graph neue Horizonte. Er ermöglicht nicht nur andere Fragestellungen und Visualisierungen von Datenmassen, sondern auch eine komplexere Anreicherung von Museumsinformationen. Aber letztendlich gewinnt der Mensch durch die Erkenntnisse, die aus diesen Daten gezogen werden. Von der Modellierung im Graphen bei der Digitalisierung bis hin zur Unterstützung durch die NFDI gibt es verschiedene Wege, sich einzubringen. Doch letztendlich liegt die Herausforderung darin, wie wir als Gemeinschaft von Forschenden und Kulturerbebewahrenden diese komplexe Datenlandschaft gemeinsam gestalten und nutzen können. Prof. Dr. Harald Sack isst Bereichsleiter für Information Service Engineering bei FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur und Professor am Karlsruher Institut für Technologie (KIT), Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) mit der Forschungsgruppe „Information Service Engineering". Und NFDI4Culture Co-Spockesperson von FIz Karlsruhe Prof. Dr. Holger Simon ist Sprecher im AK Digitale Kunstgeschichte, Geschäftsführer der Pausanio GmbH & Co. KG, Er ist außerplanmäßiger Professor an der Universität zu Köln und im Culture Steering Board NFDI 4 Culture. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 06.12.2023
Dauer: 01:02:52
In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Dr. Grischka Petri über die vielen unterschiedlichen Rechtsverhältnisse in der Kunstgeschichte und dem digitalen Raum. In einem lockeren Rechtsgespräch erhält man einen Überblick über den Blumenstrauß an Rechtsformen, mit denen man in Berührung kommt, wenn es um die Erforschung des kulturellen Erbes geht. Petri plädiert dafür, die Bild- und Urheberrechte als Mitspracherechte zu verstehen. Die Forschenden kennen sich immer besser aus und wissen um die Knackpunkte. Doch die Rechtsformen ändern sich stetig weiter. Dabei schöpft er anekdotenreich aus einem großen Fundus von Praxisbeispielen. Dabei kommen Candida Höflers Fotografien von Rodin ebenso zur Sprache wie die von generativen Modellen erstellten Bilder. Wie ist unser Umgang mit den Urheberrechten bei künstlerischen Aufnahmen von gemeinfreien Werken? Und wo stehen wir gerade in der KI-Recht-Debatte? Aktuell fällt der Output von generativen Modellen noch aus dem Werkschutz heraus. Doch das könnte sich mit einem steigenden Verständnis der Verfahren auch ändern. Im Gespräch geht es auch um die rechtlichen Rahmenbedingungen für datengetriebene Forschung. Was ist bei der Beschaffung von großen Datenmengen noch erlaubt? Und welche Möglichkeiten der Publikation von Daten hat man, wenn sie einem nicht gehören? Der digitale Raum hat neue Spielformen von Bildern zutage gebracht. Während auf der einen Seite das Remixen und eben nicht auf ein Original reduzierte spannende, virale Kulturphänomene entstehen lässt, wächst das Interesse an einer Zertifizierung durch Blockchain-Technologie. Was sind die aktuellen Trends und welche Rolle spielt dabei Kunstmarkt? Neben den übergeordneten Debatten geht es auch immer wieder um die Eigenverantwortung als Wissenschaftler*in. Neben einem wissenden Umgang mit Bildern und Daten von sammelnden Institutionen liegt es doch an, wie zugänglich und rechtlich offen die eigenen Forschungsergebnisse zur Verfügung gestellt werden. Priv. Doz. Dr. Dr. Grischka Petri ist bei FIZ Karlsruhe und dort Mitarbeiter am Legal Help Desk von NFDI4Culture sowie Privatdozent für Kunstgeschichte an der Universität Bonn. Er beschäftigt sich schon lange mit Immaterialgüterrecht in verteilten Informationsinfrastrukturen in seinem Forschungsschwerpunkt über das Verhältnis von Recht und Kultur. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 01.11.2023
Dauer: 01:05:28
In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Fabian Offert über AI Art im Allgemeinen, wie sich das Genre mit den neuen Bildgeneratoren jüngst verändert hat und die dahinterliegenden KI-Verfahren. Dabei beleuchten sie schlaglichtartig die historischen Entwicklungen und die Herausforderungen für die Kunstgeschichte im Umgang mit den neuen Bildmedien. Schon lange vor der Veröffentlichung von Dall-E oder Midjourney nutzen Künstler*innen die Verfahren von Machine Learning und später Neuronalen Netzen bis zu generativen Modellen. Der Überbegriff AI Art umfasst Kunstwerke, die mithilfe von künstlicher Intelligenz und speziellen Algorithmen erstellt oder beeinflusst werden, wobei die Technologie entweder als Werkzeug für Künstler*innen dient oder autonom Kunstwerke generiert. Es umfasst eine breite Palette von Ausdrucksformen, die von algorithmisch gesteuerten Designs bis hin zu Werken reichen, die vollständig von KI-Systemen erzeugt werden. Das Genre ist aufgrund der heterogenen Werklage schwierig zu fassen. Doch mit dem öffentlichen Zugang zu den Verfahren über einfach zu bedienende Interfaces hat sich nicht nur das Genre AI Art geändert. Die neuen Bildgeneratoren lassen uns alle zu Künstler*innen werden: mit einem Prompt, einer Texteingabe an ein KI-System, werden Rechenprozesse angestoßen und neue Bilder generiert. Sie entstehen jedoch nicht in einem Vakuum, sondern sind Ergebnisse von Lernprozessen mit Millionen eingespeister Bilder. In dem Gespräch wird der Frage nachgegangen, wie wir mit diesen neuen Bildmedien in der Kunstgeschichte umgehen können. Was ist notwendig, um die dahinterliegenden Prozesse zu verstehen? Wie geht man beispielsweise mit Fragen des geistigen Eigentums um, wenn KI-Systeme von bestehenden Kunstwerken lernen? Und was hat die Mona Lisa damit zu tun? Wie beeinflusst die Verbreitung von ki-generierter Kunst den Kunstmarkt? Neben ethischen und rechtlichen Bedenken geht es aber auch um die Beziehung von Künstler*innen, Werk und Technik. Dabei wird klar, dass wir sowohl im bildwissenschaftlichen als auch gesellschaftlichen Diskurs mitten in einer Verhandlungsphase stecken. Wie gehen wir mit der Black Box Künstliche Intelligenz um? Was macht dieser neue Kanon und die versteckte, implizite Zensur hinter den Unser-Interfaces mit der Art uns Weise, wie wir diese Bilder verwenden und die Welt sehen? Es zeigt sich, dass vorherrschende Vorurteile durch die KI-Systeme verstärkt werden. Dabei wird auch deutlich, welche Verantwortung die Kunstgeschichte nun hat, die aktuelle Debatten mitzuführen. Dr. Fabian Offert ist Assistant Professor in History and Theory of Digital Humanities an der University of California, Santa Barbara. In seiner Forschung beschäftigt er sich schon lange mit den Wechselverhältnissen von Medien- und Kulturtheorie, Künstlicher Intelligenz und dem Einsatz von Computer Vision in den Geisteswissenschaften. Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter https://doi.org/10.11588/heidicon/1738702 Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter podcast@digitale-kunstgeschichte.de
Erschienen: 04.10.2023
Dauer: 01:03:11