News and recent developments in image analysis: theory and practice

Autor / Autorin des Berichts: 
Tobias Hodel
Zitierweise: Hodel, Tobias: News and recent developments in image analysis: theory and practice, infoclio.ch Tagungsberichte, 2014. Online: infoclio.ch, <http://dx.doi.org/10.13098/infoclio.ch-tb-0098>, Stand:


[PDF-Version des Berichts]

Im Gegensatz zum omnipräsenten Text gehört die Aufbereitung und Auswertung von Bildern weniger zu den häufig umgesetzten Formen der Digital Humanities. Ein kohärent bestücktes Panel mit Experten aus zwei britischen Epizentren der DH (Oxford und die UC London) versuchte dem image processing einen Schub zu verleihen und den postulierten zwanzigjährigen Rückstand zu minimieren.

Eingeführt wurde die Thematik durch DAVID ROBEY (Oxford), welcher insbesondere darauf aufmerksam machte, dass mittels digitaler Auswertung von Bildern Wissen produziert werde, welches nur aus den Bildern kommen könne und nicht durch Text zu ersetzen sei.

Die einzelnen Beiträge waren eng aufeinander abgestimmt und Bezüge fanden sich über die Anwendung derselben Methode insbesondere in der grossartigen Reflexion der durch die Technik unterstützten kognitiven Prozesse durch SÉGOLÈNE TARTE (Oxford), doch dazu später mehr.

Den Anfang der Präsentation machte CHARLES CROWTHER (Oxford), welcher einen Aufriss der Möglichkeiten bot, wie die Lesbarkeit von Artefakten aus der Antike erhöht und unterstützt werden kann. Die Aufstellung zu Vor- und Nachteilen der Reproduktion und Untersuchung mittels Flachbettscanner, Latex-Abguss, RTI (reflectant transformation imaging), Beamline (Suche von Farbresten) und Röntgenstrahlen demonstrierte die Fülle an Möglichkeiten, die der Forschung ermöglicht, unsichere Lesungen auf epigraphischen Dokumenten zu überprüfen und wichtiger noch, zu ergänzen. Ein Hauptvorteil der digitalen Technik liegt in der Verfügbarmachung der Reproduktion für interessierte Forschende in der ganzen Welt. Die Frage zum Abschluss ob die präsentierten Methoden zu neuen Paradigmen führen oder bloss die Erweiterung von bereits bestehenden Möglichkeiten seien, wurde durch ihn nicht abschliessend beantwortet. Im Mittelpunkt standen die erzielten Resultate, das heisst die Möglichkeit Textstellen nun zu rekonstruieren, welche bislang als unlesbar galten.

Auf die Möglichkeiten des bereits erwähnten RTI (Link: http://culturalheritageimaging.org/Technologies/RTI/) ging JACOB DAHL (Oxford) näher ein, welcher demonstrierte, wie mittels mehrfacher Fotografie aus der selben Perspektive bei wechselndem Licht (im sogenannten dome) Effekte erzeugt werden können, als ob das fotografierte Objekt in der Hand des Forschenden wäre und Lichtreflexion gezielt genutzt würde.
Einblicke ins Verfahren bieten die abrufbaren Aufnahmen auf der Projektseite zu proto-Elamit einem bislang noch nicht vollständig entzifferten Schreibsystem: http://cdli.ox.ac.uk/wiki/doku.php?id=proto-elamite
Die Aufnahmen um den RTI-Effekt zu erzielen, sind auch im Eigenbau anzufertigen, die Zusammenführung zu einem digitalen Objekt erfordert jedoch grössere Rechnerleistung und vor allem Unmengen an Speicherplatz, sodass das Datenmanagement problematisch wird und kein einfacher Austausch möglich ist. Aber auch dafür gibt es bereits Lösungsansätze.

Die Schnelligkeit, mit der neue Lösungen angeboten werden können, hängt mit einem der Alleinstellungsmerkmal der beiden Digital Humanities-Zentren zusammen, nämlich der überaus engen Zusammenarbeit mit den Ingenieurswissenschaften vor Ort, welche im Fall von Oxford bereits Ende der 1980er Jahre einsetzte.

Aus weit weniger technischer Warte aber trotzdem technisch hoch versiert, analysierte die bereits genannte Ségolène Tarte in ethnographischer Manier kognitive Prozesse, die in digitaler Bildaufbereitung simuliert werden. In Anlehnung an das Diktum aus der opening plenary lecture von Bruno Latour, dass Digitalisierung nicht zu einer Ent- sondern im Gegenteil zu einer Rematerialisierung der untersuchten Objekte führt, verdeutlichte Tarte, dass es sich bei den Digitalisaten um neugeschaffene Artefakte handelt, die eigenen kulturellen Logiken folgen und nicht “nur” Daten seien.

Tarte, welche nach einem Studium der Mathematik an der Universität Bern in Biomedizintechnik promovierte, identifizierte vier Arten des kognitiven Umgangs von Experten mit (digitalen) Bildern, die häufig unbewusst geschehen. Erstens die körperliche (oder verkörperlichte) Interaktion mit dem Stück, etwa in dem Rollungen simuliert werden. Zweitens die Artikulation von Unartikuliertem beim Weiterdenken von Strichen, die aufgrund von Verlusten oder unsorgfältiger Arbeitsweise fehlen. Drittens die Sichtbarmachung des Unsichtbaren, etwa durch den RTI-Effekt. Viertens die Wahrnehmung des Unmerklichen durch Bewegung oder anderen kinästhetischen Annäherungen.

Ihre Resultate betonten die ganz eigenen, unterschiedlichen Materialitäten der Artefakte und ihrer digitalen Reproduktionen, aber auch die Performativität, welche die Bilder und die darauf abge-bildeten Texte für Lesende haben. Das Digitale, so ihre an sich einfache aber zu selten beachtete Schlussfolgerung, wird immer mediatisiert durch Menschen und unterliegt aus diesem Grund der Interpretation derselben. Die Aufgabe der Digital Humanities muss es daher nicht nur sein Daten zu Informationen zu gestalten, sondern Informationen als Wissen und Bedeutung zu modellieren.

Einen völlig anderen Ansatz verfolgten die Ausführungen von JULIANNE NYHAN (London). Ähnlich der Entwicklung der Informationstechnologie, die durch militärische und wirtschaftliche Anforderungen und Investitionen vorangetrieben wurde, kann zurzeit ein rasanter Fortschritt in der Gesichtserkennungstechnik beobachtet werden. Player sind grosse Unternehmen mit Massen von Daten (Facebook) und Sicherheitsbehörden (NSA und andere Geheimdienste), welche sich finanzielle Gewinne und höhere Sicherheit erhoffen. Durch die eingesetzten Forschungsmittel soll es gemäss der Präsentierenden nur noch eine Frage der Zeit sein, bis die Systeme perfektioniert werden. Die Nähe zu militärischen Entwicklungen liess Nyhan ethische Bedenken bei der Anwendung von Gesichtserkennungssoftware insbesondere für die Digital Humanities anbringen. Nichtsdestotrotz verwies sie auf eine Sammlung mit fünfzig Erkennungsapplikationen (http://blog.mashape.com/list-of-50-face-detection-recognition-apis/ ) und Modellen die bei der Erkennung verwendet werden.

Ein anthropozentrisches Ende fand das stimmige Panel mit künstlerischen Wolken-Gesichts-Bildern, welche einen künstlerischen Blick auf das „Erkennen“ von Gesichtern warf.


Aus: http://cdn.ssbkyh.com/works/cloud_face/detail3.jpg (Veröffentlicht mit Erlaubnis von Shinseungback Kimyonghun)


Paper Session 7, 11. Juli 2014
Chair: Tomoji Tabata

New and recent developments in image analysis: theory and practice
Robey, David; Crowther, Charles; Nyhan, Julianne; Tarte, Segolene; Dahl, Jacob
Link zum Paper: http://dharchive.org/paper/DH2014/Panel-759.xml

Veranstaltung: 
Digital Humanities Conference 2014
Veranstalter: 
Alliance of Digital Humanities Organizations
Veranstaltungsdatum: 
07.07.2014 bis 12.07.2014
Ort: 
Lausanne
Sprache: 
d
Report type: 
Conference