Coding da Vinci – Preisverleihung

mitgeteilt von Wolfgang Peters-Kottig, Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB).

Wir möchten Sie im Namen aller Veranstalter herzlich zur öffentlichen Präsentation und Preisverleihung von Coding da Vinci, dem ersten Kulturdaten-Hackathon, am 6. Juli 2014 in das Jüdische Museum Berlin einladen.

Während des erfolgreichen Auftaktwochenendes von Coding da Vinci Ende April haben die etwa 150 Teilnehmer/innen auf Basis der von 16 Kulturinstitutionen zur Verfügung gestellten offenen Kulturdaten erste Ideen für neue Anwendungen entworfen. Jetzt befinden sich die Teams im “10-Wochen-Sprint”. Sie entwickeln ihre Projekte weiter, um sie im Juli anschaulich zu präsentieren! Die fünf besten Projekte werden von einer Jury prämiert.

Wir würden uns daher sehr freuen, Sie und Ihre Freunde und Kollegen am 6. Juli 2014 ab 10:30 Uhr im Jüdischen Museum (Lindenstr. 9-14, 10969 Berlin) zur Preisverleihung begrüßen zu dürfen!

Melden Sie sich bitte hier zur Coding da Vinci – Preisverleihung an: http://codingdavinci.de/anmeldung/
Weitere Informationen zum Programm: http://codingdavinci.de/programm/

Wenn Sie schauen möchten, welche Institutionen Daten zur Verfügung gestellt haben, können Sie das hier auf der Coding da Vinci Webseite tun.
Wenn Sie sich einen ersten Eindruck über die Projekte verschaffen wollen, schauen Sie auf unser Hackdash, dort finden Sie erste Skizzen dazu.

Leiten Sie diese Information bitte auch in Ihre Netzwerke weiter!
Und folgen Sie uns auf twitter: @codingdavinci – Hashtag: #codingdavinci

Quelle: http://dhd-blog.org/?p=3651

Weiterlesen

Aktendigitalisierung für Anfänger. Oder: Die kurze Geschichte einer rasanten technischen Entwicklung

Wie lange wird die Digitalisierung der „Deutschen Nachkriegskinder“-Studie dauern? Durch die schnellen technischen Entwicklungen muss diese Frage stets neu und besser beantwortet werden. Am 5. Juni habe ich zusammen mit einer studentischen Hilfskraft versucht genau das auf dem aktuellen Stand der verfügbaren Technik herauszufinden. Dabei gebe ich auch einen Rückblick auf die bisher bestehenden Möglichkeiten.
Erst wenige Tage vorher habe ich entdeckt, dass in der Universitätsbibliothek Bonn ein sehr hübscher und neuer Buchscanner steht, mit dem jeder kostenlose Scans auf USB-Stick anfertigen kann. Noch vor wenigen Jahren kostete in der gleichen Bibliothek ein rein digitaler Scan genau so viel wie der Ausdruck auf Papier! Glücklicherweise sind diese Zeiten vorbei. Wir haben daher einen Vormittag lang verschiedene Unterlagen gescannt, die Zeit gemessen, Workflows und Einstellungen optimiert und dokumentiert.

Scanner anno dazumal (2009)

Aber gehen wir noch mal kurz zurück ins Jahr 2009, als ich zum ersten Mal mit der Forschungsgruppe „Deutsche Nachkriegskinder – revisited“ in Berührung kam. Damals war ich noch selbst studentische Hilfskraft. In meinem Büro stand ein Scanner zur Verfügung, der per Parallelschnittstelle an den Arbeitsrechner angeschlossen war: ein Kodak i80. Dieser Flachbettscanner kostete seinerzeit wohl eine kleine vierstelllige Summe, war jedoch schon zu meinem Arbeitsbeginn nicht mehr auf dem Stand der Technik und furchtbar langsam. Jeder Scan dauerte damit mindestens eine Minute, vom Einlegen des Blatts bis zum fertigen Scan auf dem Rechner. Meistens dauerte es viel länger. Ein ganzes Archiv damit zu digitalisieren würde einen Menschen sehr viel Lebenszeit rauben.

Smartphone-Scanner (2012)

Seit der Verbreitung von Smartphones mit guten Kameras erschloss es sich mir nicht mehr über eine Minute auf einen Scan zu warten, wenn ich sofort ein digitales Abbild der Akte erhalten kann. 2012 entdeckte ich ein  Crowdfunding-Projekt für eine Box, die es ermöglichte mit dem iPhone zu scannen, ohne die Kamera wackelig in der Hand zu halten, teils sogar mit eingebauter Beleuchtung. Ich baute mir zum Testen so selbst einen kleinen Smartphone-Scan-Automaten. Heutzutage gibt es solche fertige Boxen für wenig Geld.

Problematisch beim Smartphone-Scannen ist die fehlende Nachbearbeitung. Bilder sind oft verzerrt sein, die Farben und Lichtverhältnisse nicht korrekt wiedergegeben oder die Bilder sind unscharf, was man erst auf dem großen Bildschirm erkennen kann. Doch mit neuen Apps, die das Foto mit Algorithmen zu einem perfekten Scan zuschneiden, Farben und Licht optimieren, ist all das kein Problem mehr.

Im Alltag benutze ich keinen Scanner mehr, sondern die Scanbot-App der Bonner Entwickler von doo. Die Papierränder werden automatisch erkannt und das Bild automatisch nach der Scharfstellung und Dokumenterkennung ausgelöst. Danach landet das Bild sofort und ebenfalls automatisch in meiner Dropbox. Also muss ich nur noch meine Kamera ausrichten und danach kann ich das Ergebnis auf meinem Rechner begutachten.

Automatische Dokumenterkennung
Nachbearbeitung und Upload

Natürlich ist die Qualität dieser Bilder sehr unterschiedlich und hängt trotz aller Algorithmen sehr von den externen Lichtverhältnissen ab. Manchmal wird das Bild auch verzerrt, weil man die Kamera nicht perfekt gerade über das Blatt Papier gehalten hat. Trotzdem, mit der Handykamera und einer optimierten App könnte ich in meinen Tests etwa alle 30 Sekunden einen akzeptablen Scan erstellen.

Scannen mit dem Zeutschel zeta (2014)

Vor einem Jahr ist mir dann zum ersten Mal der Scanner der Firma Zeutschel bei Twitter über den Weg gelaufen. Ich war überrascht, dass eine Buchscanner-Firma mit sozialen Medien arbeitet. Um ehrlich zu sein, gibt es den Zeutschel zetal schon seit 2011 auf dem Markt. Doch erst eine Woche vor diesem Beitrag habe ich ihn dann endlich in der Bibliothek entdeckt und wollte ihn ausprobieren. Einen solchen Buchscanner kann man sich leider nicht selbst basteln und er liegt auch nicht im studentischen Budget. Umso schöner, dass die ULB Bonn ihn angeschafft hat.

Das Design des zeta erinnert ein wenig an Apple, zumindest ist es sehr hübsch für einen Buchscanner, die sonst eher funktionell gestaltet sind. Die einzige, aber dafür enorm störende Schwachstelle ist der Touchscreen, der leider nicht von Apple stammt. Das Betriebsystem ist Windows 7, das bekamen wir bei einem Absturz des Programms zu Gesicht. Wer  Multi-Touch-Gesten und eine funktionierende Bildschirmtastatur gewohnt ist, wird enttäuscht. Buchstaben muss man mehrfach drücken, die Tastatur hat keine Umlaute und das Anpassen des Scanbereichs ist nur nach mehrfachem Probieren zu nutzen, trotz Multitouchfähigkeit des Bildschirms ist das wirklich enttäuschend für so ein hochpreisiges Gerät.

Wenn man aber etwas mit dem zeta gearbeitet hat, merkt man, dass einige Algorithmen im Hintergrund die Arbeit des Buchscanners unbemerkt erleichtern. Finger, die das Blatt festhalten, werden aus dem Bild heraus gerechnet und es schien mir, als würde der Scanner eine Wahrscheinlichkeit berechnen, wo die nächste Buchseite ist, damit er die Zuschnitte nicht bei jedem Scan neu festlegen muss.

Die Scans kann man in den Formaten .jpg, .tif oder .pdf speichern, sie haben eine Auflösung von 300 dpi, unter gewissen Einstellungen auch bis zu 600 dpi. Bei PDF-Dateien besteht die Möglichkeit mehrerer Scans in eine Datei zu speichern (Multisite). Auch die Zuschnitte lassen sich per Einstellung optimieren (nur links, nur rechts, automatisch teilen oder nicht teilen).

Der Scanvorgang selbst ist wirklich sehr komfortabel und blitzschnell. Mit den Fingern fixiert man das Blatt, tippt sobald eine grüne LED leuchtet auf die Scanbuttons, die an mehreren Stellen ergonomisch erreichbar sind und kontrolliert danach das Ergebnis auf dem Touchscreen. Sobald der nächste Scan gestartet wird, wird das vorherige Bild auf dem USB-Stick gesichert. Nur beim letzten Scan muss man aufpassen, dass man das Speichern nicht vergisst, bevor man den USB-Stick entfernt.

Nachdem wir alle Einstellungen einmal ausprobiert haben und einen optimalen Workflow zu zweit entwickelten (einer sortiert die Aktenblätter, legt sie auf den Scanner und fixiert sie, der andere scannt, kontrolliert, korrigiert und löst den nächsten Scan aus), haben wir die Zeit gemessen, die wir brauchten um eine Beispielakte zu scannen. In einer Stunde konnten wir 184 Aktenseiten scannen. Die Konzentration lässt mit der Zeit etwas nach, dafür gibt es Übungseffekte, die den gesamten Vorgang beschleunigen.

Scanbeispiele

Hollerithschlüssel für den Lehrerbericht
Anleitung von 1953 zur Durchführung und Auswertung der psychologischen Untersuchungen
Akte für die Konstitutionsdaten
Akte für die psychologischen Untersuchungsergebnisse
Unterzeichentest

Ergebnis

Um die Dauer der gesamten Digitalisierung aller Akten abschätzen, müssen wir wissen, wie viele Aktenblätter es gibt. Im Schnitt sind etwa 100 Aktenblätter pro Akte enthalten. Insgesamt haben wir 4095 Akten wiedergefunden, was bedeutet, dass bis zu 409.500 Aktenblätter gescannt werden müssten.

Schätzung der notwendigen Arbeitsstunden zur Digitalisierung von 409.500 Aktenblätter mit klassischem Scanner, Smartphone und Buchscanner

Schätzung der Arbeitsstunden zur Digitalisierung von 409.500 Aktenblätter mit klassischem Scanner, Smartphone und Buchscanner

Nach meiner Schätzung sind also mit aktueller Technik für die Digitalisierung der Nachkriegskinder-Akten 4451 Arbeitsstunden nötig. Das errechnet sich aus 184 Aktenblätter, die pro Stunde mit zwei Personen gescannt werden können, bei einer Anzahl von 409.500 zu scannenden Aktenblätter.

Diese Zahlen sind nur grobe Schätzwerte und können sich durch Übung, bessere Workflows und bessere Technologien in kurzer Zeit wieder verändern. Nicht eingerechnet ist die Zeit für die Verschlagwortung und Anreicherung mit Metadaten, die vermutlich noch einmal das Doppelte der Zeit kosten wird.

Über Anregungen, Erfahrungen, Hinweise auf andere Artikel, best practices und Kommentare, aus denen wir mehr über Digitalisierung lernen können, würden wir uns freuen. Eine Einführung, die ich mir als nächstes genauer anschauen werde, ist die “Checkliste Digitalisierung”, die unter folgendem Link abgerufen werden kann:

http://dx.doi.org/10.12752/2.0.001.1

Ein weiterer Linktipp aus dem Archivamtblog: Marcus Stumpf, Digitalisierungsstrategien in Deutschland – Versuch einer Bestandsaufnahme, 8.5.2014: http://archivamt.hypotheses.org/668

Disclaimer: Es gibt keinen zu erklärenden Interessenkonflikt, da dieser Artikel aus privatem Interesse geschrieben wurde.

Quelle: http://zakunibonn.hypotheses.org/1119

Weiterlesen

IANUS-Ressourcen werden nun persistent refenziert

IANUS, das Forschungsdatenzentrum für die Archäologien und Altertumswissenschaften, hat eine technische Hürde beim Aufbau des Online-Archives erfolgreich gemeistert. Dank einer Kooperation mit da|ra erhalten ab sofort die wichtigsten Ergebnisse des Projektes, die über die Homepage von IANUS veröffentlicht werden, einen Digital Object Identifier (DOI). Damit können die elektronischen Ressourcen vergleichbar mit ISBN-Nummern dauerhaft und eineindeutig zitiert werden. Auch alle zukünftig bei IANUS archivierten Forschungsdaten werden einen solchen persistenten Identifikator erhalten.
IANUS ist ein von der Deutschen Forschungsgemeinschaft gefördertes und vom Deutschen Archäologischen Institut koordiniertes Projekt, dessen Ziel der Aufbau eines nationalen Forschungsdatenzentrums für die Archäologien und Altertumswissenschaften in Deutschland ist.

http://www.ianus-fdz.de/news/73

ianus-fdz

 

Quelle: http://dhd-blog.org/?p=3633

Weiterlesen

Anmeldefrist verlängert: Zweitägiger Workshop – Forschungsdaten für Andere. Lizenzen und Werkzeuge für Historiker

Das Leibniz-Institut für Europäische Geschichte in Mainz richtet im Rahmen von DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) einen zweitägigen Workshop zur Lizenzierung von Forschungsdaten aus und lädt dazu Historikerinnen und Historiker ein, die selbst über Forschungsdaten verfügen, planen diese zu veröffentlichen und nun nach einer geeigneten Lizenz für ihre Daten suchen. Hier der Link zum Programm!

Anmeldungen sind ab sofort bis zum 09.06.2014 über das Registrierungsformular möglich. Der Workshop ist auf max. 18 Personen beschränkt, die Vergabe der Plätze und eine Zusage über eine Teilnahme erfolgt in der Reihenfolge der Anmeldungen. Die TeilnehmerInnen werden gebeten, Ihren eigenen Computer/Laptop mitzubringen, um an den Hands-On-Sessions aktiv teilnehmen zu können.

Quelle: http://dhd-blog.org/?p=3607

Weiterlesen

DFG präsentiert aktuelle Forschungsprojekte

Wissenschaftsjahr 2014: Die DFG präsentiert aktuelle Forschungsprojekte zum digitalen Wandel – mit einer neuen Website und auf dem Ausstellungsschiff „MS Wissenschaft“

Welche Auswirkungen haben die digitalen Technologien auf unser Leben und wie verändert sich unser gesellschaftliches Miteinander? Von der DFG geförderte Wissenschaftlerinnen und Wissenschaftler gehen diesen und weiteren Fragen zum digitalen Wandel nach und befassen sich mit den Bedingungen und Konsequenzen der Digitalisierung. Im Wissenschaftsjahr 2014 „Die digitale Gesellschaft“ stellt die DFG nun eine Auswahl ihrer Arbeiten auf einer neuen Website und auf dem Ausstellungsschiff „MS Wissenschaft“ vor.
Pressemitteilung
Zur Website der Terra Digitalis unter terra-digitalis.dfg.de
Weitere Informationen zum Wissenschaftsjahr 2014 im DFG-Magazin
Zur Website der MS Wissenschaft

Quelle: http://dhd-blog.org/?p=3580

Weiterlesen

Viertes TextGrid-Nutzertreffen: Anpassungen und Erweiterungen

Am 4. und 5. August 2014 wird an der Albert-Ludwigs-Universität Freiburg das vierte TextGrid-Nutzertreffen stattfinden. Der Themenschwerpunkt „Anpassungen und Erweiterungen“ verbindet dabei Erfahrungsberichte aus Projekten, die TextGrid nutzen, mit Workshops zur fortgeschrittenen Nutzung von TextGrid Laboratory und Repository. Die Veranstaltung richtet sich aber auch an Interessierte, die noch keine Erfahrung im Umgang mit der Forschungsumgebung TextGrid haben.

In Vorträgen und bei den Posterpräsentationen im Rahmen des TextGrid-Cafés werden die Projekte „SlaVaComp“, „Theodor Fontanes Notizbücher“ und „Blumenbach online“ vorgestellt. Eine einführende Schulung vermittelt im Vorfeld des Treffens die Grundlagen für die Arbeit mit der virtuellen Forschungsumgebung. In Workshops werden Anpassungen aus konkreten Projekten vorgestellt und in Übungen nachvollzogen. In einem Workshop wird gezeigt, wie XML-Datenbanken in TextGrid eingebunden werden können. Ein anderer demonstriert, wie mit XSLT synoptische Ansichten erzeugt werden können. Die Möglichkeit, mit Entwicklern von TextGrid direkt ins Gespräch zu kommen, rundet das Programm ab.

Eine Anmeldung ist erforderlich. Das entsprechende Formular und weitere Informationen finden sich auf der Webseite zum Nutzertreffen.

Quelle: http://dhd-blog.org/?p=3556

Weiterlesen

Zwangsarbeit. Die Zeitzeugen-App der Berliner Geschichtswerkstatt jetzt auch für Android

l-bgw-text-3

Die bereits im Herbst 2013 hier vorgestellte Zeitzeugen-App der Berliner Geschichtswerkstatt ist seit 26.03.2014 ebenfalls für Android erhältlich (seit August 2013 im App-Store, beide Versionen kostenfrei).

Folgen Sie mit dem Smartphone den Erinnerungen ehemaliger Zwangsarbeiter an Berlin zur Zeit des Nationalsozialismus. Auf fünf Touren erinnern sich Zeitzeugen an Fabriken und Lager; Fotos und Dokumente zeigen Opfer und Täter:

Ein Pole in Berlin (Fuß-Tour, Start: S-Bhf. Bornholmer Straße)

Opfer und Täter (Fuß-Tour, Start: Brandenburger Tor)

In der Fabrik (Fuß-Tour, Start: S-Bhf. Gesundbrunnen)

Zwangsarbeit war überall (Rad-Tour, Start: Potsdamer Platz)

Durch die Stadt der Lager (S-Bahn-Tour, Start: Bahnhof Zoologischer Garten)

Die Zeitzeugen-App ermöglicht eine multimediale Spurensuche. Mit Interviewausschnitten, Fotos und Karten folgt der Nutzer zu Fuß, mit dem Fahrrad oder mit der S-Bahn den Alltagswegen der Zwangsarbeiter durch die Stadt. Touristen, Schüler und alle interessierten Berliner entdecken mit den Zeitzeugen-Erinnerungen Orte, die in Reiseführern nicht verzeichnet sind. An bekannten Orten finden sie Spuren einer vergessenen Geschichte.

Die App wurde auf Deutsch und Englisch für iPhone entwickelt; im Frühjahr 2014 folgt eine Android-Version. Programmierung und Gestaltung übernahm die Mobile Melting GmbH.

Präsentation und Download

Die App wurde mit einem Zeitzeugen-Gespräch am 22. Mai 2013 erstmals öffentlich präsentiert. Die Firma Apple lehnte aber eine Freigabe zunächst ab; der Grund waren Hakenkreuze auf historischen Fotos. Seit dem 20. August 2013 steht die App im Appstore kostenlos zum Download bereit, seit 26.3.2014 ebenfalls kostenlos bei Google Play.

Bei Fragen und Feedback schreiben an app@berliner-geschichtswerkstatt.de.

Quelle: http://dhd-blog.org/?p=3483

Weiterlesen

Kolloquium: Wie Digital Humanities gestalten? Ein Kaleidoskop von Perspektiven

Im Rahmen des Forschungskolloquiums von Prof. Dr. Claudine Moulin (Universität Trier – Germanistik) und Prof. Dr. Caroline Sporleder (Universität Trier – Computerlinguistik & Digital Humanities) geben internationale Wissenschaftler einen Einblick in ihre aktuellen Forschungen und zeigen dabei ein breites Spektrum digitaler Möglichkeiten auf.

8. Mai 2014
Dr. Nils Reiter (Universität Stuttgart)
Discovering Structural Similarities across Narrative Texts

15. Mai 2014
Prof. Dr. Michael Stubbs (Universität Trier)
The (very) long history of corpora, concordances, collocations and all that

22. Mai 2014
Dr. Hans-Ulrich Seifert (Universität Trier)
Dietrich online. Die Umwandlung der ‚Bibliographie der deutschsprachigen Zeitschriftenliteratur‘ des Zeitraums 1897–1944 in ein normdatenbasiertes Suchportal (DFG-Projekt UB Trier 2014–2019)

5. Juni 2014
Thierry Declerck (Universität des Saarlandes)
Repräsentation von dialektalen Wörterbüchern für deren Veröffentlichung im Linked-Data-Netz

26. Juni 2014
Dr. Julianne Nyhan (University College London)
Fr. Roberto Busa: founder of Digital Humanities?

3. Juli 2014
Dr. Silvia Stoyanova (Universität Trier/Princeton University)
Remediating Giacomo Leopardi’s Zibaldone: the digital encoding and harvesting of intra- and inter-textual semantic networks as a hermeneutic approach to the intellectual notebook genre

10. Juli 2014
Dr. Natalia Filatkina (Universität Trier)
Wie Zukunftsangst konstruiert wird. Diskurshistorische und korpuslinguistische Analysen des Begriffs

17. Juli 2014
Dr. Anne Baillot (Humboldt-Universität zu Berlin)
Was ist digitale Philologie?

24. Juli 2014
Jürgen Knauth und David Alfter (Universität Trier)
Towards a lemmatized and PoS-tagged Pali corpus

Veranstaltungsort: Universität Trier, 16-18 Uhr, Raum B17

Es ergeht herzliche Einladung an alle Interessierten!

Weitere Informationen entnehmen Sie der Website des Kompetenzzentrums für elektronische Erschließungs- und Publikationsverfahren | Trier Center for Digital Humanities.

Quelle: http://dhd-blog.org/?p=3461

Weiterlesen

Weitergedacht

Die Podiumsdiskussion “Nachwuchswissenschaftler, Verlage, Bibliotheken & Open Access: Zeitgemäßes Publizieren in den Geisteswissenschaften” ist auf reichlich Interesse gestoßen und fand viel Nachhall, z.B. hierda, dort.

Für die Zeitschrift Bibliothek. Forschung und Praxis haben Herr Ceynowa und ich das Thema weiter gedacht:
Neuer Wein in neuen Schläuchen. Von Wissenschaftlern, die nicht nur anders publizieren, sondern auch anders schreiben werden, erscheint 2014.
Der Artikel ist als Preprint online verfügbar (leider nur bis zur Printpublikation im Juli 2014).

Abstract
Open Access bewirkt tiefgreifende Systemverschiebungen. Nicht nur äußerlich, indem sich besonders in den Geisteswissenschaften die Rollen von Verlagen, Bibliotheken und Forschungsförderern verändern, sondern auch methodisch: Wie wird wissenschaftliches Schreiben morgen aussehen, wenn das Netz nicht mehr Spiegelbild Gutenbergscher Publikationstradition ist, sondern seine tatsächlichen Potenziale genutzt werden? Wenn sich im Digitalen der traditionelle Publikationsbegriff zugunsten des Konzepts eines entgrenzten, sich immer neu vernetzenden, dynamischen Wissensstromes auflöst? Ausgehend von einer Münchener Open-Access-Veranstaltung werden Aspekte wissenschaftlichen Publizierens der Zukunft beleuchtet.

Quelle: http://rkb.hypotheses.org/685

Weiterlesen

SlaVaComp bietet Tätigkeit auf Werkvertragsbasis

Stellenausschreibung im Auftrag von Dr. Susanne Mocken (Albert-Ludwigs-Universität Freiburg)

An der Freiburger Albert-Ludwigs-Universität ist im Rahmen des BMBF-geförderten Projekts „SlaVaComp – Computergestützte Untersuchung von Variabiltät im Kirchenslavischen“ zum nächstmöglichen Zeitpunkt eine Beschäftigung auf Werkvertragsbasis (Zeitumfang ca. 60h/Monat) zu vergeben.

Worum geht es? Wir benötigen Unterstützung bei der Transformation von in Textform vorliegenden Glossaren in TEI-konformes XML.

Was erwarten wir? Kenntnisse in einer Skriptsprache (Perl, Python …) oder auch einer anderen Programmiersprache. Darüber hinaus Interesse am Umgang mit natürlichen Sprachen, Engagement sowie sorgfältiges und eigenverantwortliches Arbeiten.

Was bieten wir? Interessante Tätigkeit bei freier Zeiteinteilung und Möglichkeit zur Telearbeit. Ideal für StudentInnen der Informatik oder Computerlinguistik.

Kenntnisse der russischen Sprache bzw. des griechischen und/oder kyrillischen Schriftsystems sind von Vorteil, aber nicht Voraussetzung.

Die Auswahl erfolgt nach den Regeln des AGG (Allgemeines Gleichbehandlungsgesetz).

Kontakt und weitere Informationen:

Dr. Susanne Mocken
susanne.mocken@rz.uni-freiburg.de

Quelle: http://dhd-blog.org/?p=3320

Weiterlesen