Call for Papers: 5. Digitale Bibliothek, Graz (A), 23 – 24 Februar 2015

Unser digitales Gedächtnis – Langzeitarchivierung von kulturellem und wissenschaftlichem Erbe

Die Themen der Konferenz „Unser digitales Gedächtnis sind:digbib-logo-2015-textv03-15

Forschungsdaten

  • Typen von Forschungsdaten
  • Erfordernisse bei der Archivierung von Forschungsdaten
  • Visualisierung von Forschungsdaten

Best-Practice Projekte

  • Beispielhafte Projekte und Kooperationen
  • Public Private Partnership-Modelle
  • Rechtliche Aspekte

Datenzentren und Infrastruktur

  • Digitalisierungs- und Langzeitarchivierungsservices
  • Netzwerk- und Speichersysteme
  • Big Data und Cultural Analytics

 

Wir freuen uns über Beiträge, die sich mit den theoretischen Grundlagen oder praktischen Lösungen für diese Themenbereiche aus der Perspektive von Kultur- und Wissenschaftseinrichtungen auseinandersetzen.

Alle fristgerecht eingereichten Beiträge werden vom Programmkomitee begutachtet. Beiträge und ihre Inhalte werden vertraulich behandelt; angenommene Beiträge bis zur Bekanntgabe der Annahme gegenüber dem Autor/der Autorin.

Einsendeschluss für Beiträge (nur Kurzfassungen, max. 800 Wörter):

30. September 2014

Bitte geben Sie bei Ihrer Einsendung bekannt, ob Sie Ihren Beitrag als Vortrag (20 min) oder Poster (5 min Vorstellung im Plenum + Ausstellung) gestalten wollen.

Benachrichtigung der Autor/inn/en über Annahme/Ablehnung eingereichter Beiträge:

31. Oktober 2014

Tagungssprache ist Deutsch. Beiträge sind aber auch in englischer Sprache möglich.

Senden Sie Ihre Kurzfassungen bitte an Frau Mag. Gerda Koch.

Veranstalter:

Universität Graz, Zentrum für Informationsmodellierung, Austrian Centre for Digital Humanities
EuropeanaLocal Austria, AIT Forschungsgesellschaft mbH

link

Quelle: http://dhd-blog.org/?p=3744

Weiterlesen

Normen und ihr paradoxes Verhältnis zu Freiheit – von Thomas Mario Hirschlein

Eine gängige Vorstellung in den Sozialwissenschaften besagt, dass innerhalb einer Gruppe oder Gesellschaft Normen gelten, die die Freiheit und Handlungsmöglichkeiten der einzelnen Mitglieder einschränken, dass sich also soziale Normen und individuelle Freiheit unvereinbar gegenüberstehen. Im Folgenden kritisiere ich eine solche … Continue reading

Quelle: http://soziologieblog.hypotheses.org/6722

Weiterlesen

Wissenschaftskommunikation 3.0 — ein Plädoyer für eine vertikale Erweiterung des Wissenschaftsdialogs auf Studierende

http://www.wissenschaftsmanagement-online.de/node/4532 Für Studierende stellt sich Wissenschaftskommunikation noch immer eher als ein Wissenschafts­monolog, denn als ein Wissenschaftsdialog dar. Bei der andauernden Rezeption meist ge­lungener aber nicht immer leicht verdaulicher Forschungs- und Lehrliteratur kann man es den Hochschülern nicht verübeln, wenn sich unter Ihnen ein Gefühl der wissenschaftlichen Passivität breit macht. Nachdem mit dem Slogan Wissenschaftskommunikation 2.0 […]

Quelle: http://www.einsichten-online.de/2014/07/5207/

Weiterlesen

Resilienz und die Kommunikation mit Maschinen

Kommunikation mit Maschinen – so hieß die Tagung des neuen Human Dynamics Centre der Universität Würzburg. Hier lud die Philosophische Fakultät II vom 26. bis 28. Juni Philosophen, Soziologen, Psychologen und Ingenieure ein, um interdisziplinär über das Thema zu diskutieren.

Aus Sicht des Forschungsverbunds liegt es nahe, die einzelnen Beiträge daraufhin zu untersuchen, welche Rolle die Resilienz darin spielt. Dabei stellen wir uns zwei Fragen: Welche Systeme werden als resilient dargestellt? Was erzeugt diese Resilienz?

Der Beitrag “Zeigen als Technik – Bilder als Werkzeug” von Lambert Wiesing (Bildtheorie und Phänomenologie, Uni Jena) bildete den Auftakt der Tagung am Donnerstag Abend. Als eine erstaunlich resiliente Zeigetechnik erweist sich die Zentralperspektive, die über verschiedene Kulturen hinweg das dominante Darstellungsmittel geworden ist (im Gegensatz z.B. zur Bedeutungsperspektive). Der allergrösste Teil der von uns verwendeten Bilder ist in Zentralperspektive dargestellt (abgesehen von Kinderzeichnungen). Die Zentralperspektive ist keiner Beeinflussung von Weltanschauung, Religion oder Genderzugehörigkeit verdächtig. Was macht sie so erstaunlich resilient? Eine These ist, das die Verbreitung der Fotografie, einer Technik die es einfach macht, Bilder in Zentralperspektive zu erstellen, zu einer Dominanz der Zentralperspektive beigetragen haben könnte. Lambert Wiesing schlägt alternativ vor, dass die Zentralperspektive zwar vereinfachen und Details weglassen kann, aber dabei nichts darstellt was nicht richtig wäre.

Nach einem 1:0 für Deutschland im Spiel gegen die USA und einem zünftigem fränkischen Essen startete am nächsten Morgen Nicole Krämer (Sozialpsychologie, Uni Duisburg) mit ihrem Beitrag “Falsche Freunde? – Sozial-emotionale Wirkungen der Interaktion mit Maschinen”. Sie berichtete über die aus Ihrer Sicht erstaunliche Resilienz des sozialen Verhaltens von Menschen, die selbst auf computergesteuerte Avatare so reagieren, als wären sie soziale Wesen. So ist die Sprechangst vor einem ablehnend reagierenden virtuellen Publikum aus Avataren größer als vor einem freundlich gestimmten. Wir wählen andere Filme aus, wenn diese von einem virtuellen Agenten empfohlen werden, als wenn wir sie einfach aus einer Liste auswählen. Je häufiger ein Avatar lächelt, desto häufiger lächeln wir. Wenn ein Roboter gequält wird, leiden wir mit. Und da nützt es gar nichts, dass wir wissen, dass wir es in all diesen Fällen nicht mit sozialen Wesen sondern mit vorprogrammierten Maschinen zu tun haben – wir verhalten uns trotzdem so. Was macht unser Sozialverhalten so resilient und damit manipulierbar für Maschinen? Die Antwort könnte darin liegen, dass das Sozialverhalten sich im Laufe der Evolution entwickelt hat und damals eben noch keine Computer und künstliche Personen vorhanden waren. Aber ist das nicht zu einfach? Auch gegenüber Plüschtieren und Puppen zeigen wir uns emphatisch. Wieviel Realismus und Ähnlichkeit ist nötig? Nicht viel meint das Publikum, denn bereits Heider und Simmel (1944) konnten in ihren Studien zeigen, dass sogar Dreiecke und Kreise die sich bewegen von uns als mit sozialen Intentionen ausgestattete Individuen wahrgenommen werden.

Stephan Schwan (Leibniz-Institut für Wissensmedien, Tübingen) schließt an mit einer Betrachtung von “Digitalen Schnittstellen des Denkens und Lernens”. Sein Vortrag verweist darauf, dass das Externalisieren unserer Kognitionen unser Denken und Lernen resistenter machen kann. Klassisch geschieht das zum Beispiel mit Hilfe von Vorlesungsmitschriften oder Spickzetteln (wobei bei normalen Prüfungen die ersteren den letzteren überlegen sind). Computer können uns stupide oder hochkomplexe Rechenoperationen abnehmen und Daten grafisch darstellen. Damit befreien sie unser Denken für kreatives Problemlösen. Jedoch heißt eine Aufgabe zu vereinfachen nicht immer auch, sie leichter erlernbar zu machen. Ein gewisses Schwierigkeitsniveau ist nötig, sonst bleibt nichts im Gedächtnis hängen. Wie und wofür die Maschinen eingesetzt werden bestimmt also, ob unser Denken und Lernen mit ihnen resilienter wird.

Kurz vor der Mittagspause spricht Elena Esposito (Soziologie, Universität Modena und Reggio Emilia) über “Interaktion mit Algorithmen”. Sie erinnert uns daran, dass bereits ein Viertel aller Twitternachrichten und vier Fünftel der Bewegungen an Aktienmärkten von Algorithmen verursacht werden. Dies wirft die Frage nach der Resilienz unserer Kommunikation auf. Können wir überhaupt noch von Kommunikation reden, wenn wir mit Algorithmen interagieren? Denn Algorithmen denken nicht selbst. Sie bedienen sich parasitär der menschlichen Intelligenz indem sie unsere Aussagen nur noch nach Häufigkeiten sortieren und Verknüpfungen zwischen ihnen  aufbauen (vgl. Googles Page Rank). Die wahre Semantik muss immer noch von uns kommen. Also Entwarnung? Oder werden wir uns doch verändern?

Den ersten Beitrag am Nachmittag liefert Werner Rammert (Techniksoziologie und – philosophie, TU Berlin) zu “Interaktionen mit technischen Dingen und Daten”. Er erinnert daran, dass unser Eindruck von Autonomie im Alltag, und insbesondere bei der Nutzung von Technik, eine sehr resiliente Illusion ist. In einem Mensch-Machine-System sind beide Partner weitaus mehr aufeinander angewiesen, als es zunächst den Anschein hat. Genauso illusionär wäre es anzunehmen, dass auch eine Maschine völlige Autonomie haben kann (z.B. ein Autopilot im Flugzeug). Warum die Autonomie-Illusion dennoch so resilient ist, liegt daran, dass sie Verantwortungszuschreibungen ermöglicht. Wir halten daran fest, nicht nur weil es nützlich für die juristische Praxis ist, sondern auch um die anthropologische Differenz zu anderen Lebensformen zu erhalten und um Spielräume für kreatives Handeln zu ermöglichen.

Der letzte Vortag des Tages gehörte Andrea Kübler und Elisa Holz (Interventionspsychologie, Uni Würzburg), die über “Gehirn-Computer Schnittstellen” zur Verbesserung der Lebensqualität gelähmter Menschen referierten. Bei einer fortschreitenden Erkrankung wie der Amyothrophen Lateralsclerose (ALS), die für die Patienten zu schwersten Lähmungen führt und im Locked-In Syndrom endet, stellt sich die Frage, wie die Lebensqualität dieser Patienten aufrechterhalten lässt. Am Beispiel von zwei schwerst gelähmten Künstlern wurde gezeigt, wie Algorithmen, die Hirnstromsignale in die Steuerung eines Malprogramms übersetzen, den Künstlern ermöglichten selbst wieder Kunstwerke herzustellen und diese sogar auf Ausstellungen zu verkaufen. Die Auswirkungen auf Selbstwert, Lebensqualität und Teilhabe am Leben zeigten sich deutlich positiv. Der Vortrag lieferte ein besonderes Beispiel dafür wie es moderne Technik erlaubt, selbst unter extremen Bedingungen eine erhöhte Resilienz zu zeigen.

Der erste Vortrag am Samstag wurde von Lena Pint (Philosophie, Uni Würzburg) gehalten. Aus ihrem Vortrag zu “Körper und Leiblichkeit im digitalen Raum” nimmt man mit, dass trotz aller Verarmung der Interaktionen im Internet ein resilientes Bestreben vorhanden ist, den Körper wieder zu zeigen, sei es als Smiley-Icon in E-Mail Nachrichten, Selfie-Bildern auf sozialen Webseiten oder selbst gestalteten Avataren in Online-Games. Ähnlich wie in Nicole Krämers Vortrag zeigt sich, dass bisherige Kommunikationspraktiken sich auch in der ästhetisch reduzierten Kommunikation mit und durch Maschinen sehr resilient fortwirken können.

Die Tagung wurde beschlossen von einem Vortrag von Rüdiger Rupp (Neurorehabilitation, Universitätsklinikum Heidelberg). In seinem Vortrag “Lokomotionsrobotik in der Neurorehabilitation” ging es darum, wie querschnittsgelähmte Menschen durch den Einsatz von Robotertechnik wieder das Laufen erlernen können. Resilienz entsteht durch die Maschinen nicht nur individuell, sondern auch gesellschaftlich, wenn sie auf die Resilienz von Rehabilitationseinrichtungen wirken, deren Mangel an Physiotherapeuten in der Zukunft verschärfen wird.

Auch wenn es die Vortragenden nicht explizit benannt haben – das Konzept der Resilienz spielte in jedem Vortrag eine Rolle. Liegt es am Thema “Kommunikation mit Maschinen”, das zu Resilienzbezügen auffordert oder ist Resilienz ein allgegenwärtiges Phänomen? Evolutionspsychologen würden behaupten, dass Resilienz der Selbsterhaltung dient und deswegen eine zentrale Fähigkeit lebender Systeme beschreibt. Aus den Vorträgen von Rupp, Kübler/Holz und Schwan lernen wir, dass Technik auf verschiedenartige Weise zu unserer Resilienz beitragen kann. Beim Eintreten in solche Mensch-Maschine-Systeme sollte uns jedoch bewusst sein, dass, obwohl es nötig sein könnte anders zu kommunizieren (Esposito), unsere kommunikative Grundausstattung uns daran hindern könnte zu erkennen, dass wir von Maschinen manipuliert werden. Verschiedene Resilienz-Mechanismen, die uns zunächst die Kommunikation mit Maschinen erleichtern, wurden angesprochen: die Illusion von Autonomie (Rammert), Körperlichkeit (Pint) und unser soziales Verhalten (Krämer). Schließlich zeigt Wiesings Beitrag, dass es sich auch lohnt zu untersuchen, wie Technik(en) selbst resilient gegenüber gesellschaftlichem Wandel werden können.

(Gerhild Nieding und Jörn Hurtienne gehörten zum Organisationsteam der Tagung)

Quelle: http://resilienz.hypotheses.org/184

Weiterlesen

AK Studie zum Thema Credit Scoring

Credit Scoring als “smarte” Diskriminierung im digitalen Kapitalismus [1]

Die Studie analysiert das Phänomen des Credit Scorings von Privatpersonen aus Sicht der Technikfolgenabschätzung. Neben den wesentlichen rechtlichen Rahmenbedingungen sowie einer Vorstellung der zentralen Stakeholder der Branche, erfolgt vor allem eine kritische Auseinandersetzung mit den Methoden des Scorings sowie den sich daraus ergebenden sozialen Implikationen. Den Abschluss bilden Handlungsempfehlungen zu einer sozialverträglichen Gestaltung des Technologie- und Politikfeldes.

Dabei lässt sich grundsätzlich sagen, dass die Verfahren des Scorings gerade durch die Digitalisierung im Zuge der letzten Jahre hinsichtlich ihrer Eingriffsintensität einen wesentlichen Wandel erfahren haben. Während die bonitätsbezogene Informationssammlung über Privatpersonen und die Kontrolle der VerbraucherInnen über sogenannte „Schwarze Listen“ bereits seit den 1960er Jahren existiert, geht das Verfahren des Credit Scorings in seiner Qualität über derartige Negativdatenbanken hinaus. Statt einer eindimensionalen Betrachtung der Zahlungsmoral erfolgt eine multidimensionale Analyse sämtlicher Lebensumstände einer Person. Ein Blick auf die internationale Scoringlandschaft zeigt hier bedenkliche Tendenzen. So werden die Scoring-Modelle zunehmend mit externen, mitunter auch datenschutzrechtlich sensiblen Informationen angereichert die in ihrem ursprünglichen Entstehungskontext nicht für die Bonitätsbewertung gedacht waren.

Diesen Entwicklungen steht eine weitgehende Unwissenheit der VerbraucherInnen um diese Verfahren gegenüber – aufmerksam wird man erst, wenn negative Aspekte offenbar werden. Während die kreditgebende Wirtschaft die Notwendigkeit des Credit Scoring als Teil des Risikomanagements begründet und versucht die Vorhersage der Zahlungsausfallwahrscheinlichkeit zu präzisieren, schlagen Daten- und KonsumentenschützerInnen Alarm und diagnostizieren einen unverhältnismäßigen Eingriff in die Selbstbestimmtheit des Privatlebens der VerbraucherInnen, welche in diesem Spiel als strukturell Schwächere der Dominanz des Kreditsystems ausgeliefert sind.

AK Pressekonferenz am 02. Juli in Wien.

AK Pressekonferenz am 02. Juli in Wien.

Dabei scheinen tiefgreifende Scoring-Verfahren zur Risikominimierung gerade dann unglaubwürdig, wenn Zahlungsausfälle der Schuldner ohnehin über (mehrere) zusätzliche Sicherheiten, wie Hypotheken oder Versicherungen einkalkuliert sind. Grundsätzlich nachvollziehbar ist, dass die Kreditvergabe nicht ohne weitere Sicherheiten und Begutachtungsverfahren ablaufen kann, und der Gläubiger den potentiellen Schuldner genauer unter die Lupe nehmen will, bevor Kredit gegeben wird. Zugleich darf jedoch nicht vergessen werden, dass Gläubiger ganz wesentlich von der Kreditvergabe profitieren und diese gerade bei Banken eigentlich zur Wert- und Geldschöpfung dient.

Die Verwendung von personenbezogenen Scoring-Verfahren zur Bonitätsbewertung ist ein interessenpolitisch stark umkämpftes Terrain. Dementsprechend schwierig ist es, zu konkreten Informationen bezüglich Mechanismen, Algorithmen und verwendeter Daten zu kommen. Während über das Scoring von Unternehmen Informationen verfügbar sind, ist der Bereich des Scorings von Privatpersonen und VerbraucherInnen nahezu tabu. Von Auskunfteien, Versicherungen und der kreditgebenden Wirtschaft werden diesbezüglich weder die verwendeten Variablen, noch die definierten Risikoklassen offengelegt. Für den einzelnen Betroffenen ist es mitunter sogar in der Hausbank nicht möglich, den eigenen Score zu erfahren. Während der konkrete Algorithmus des Scorings dem Betriebsgeheimnis unterliegt, ist die Informations- und Auskunftspflicht über andere Aspekte der personenbezogenen Bewertung jedoch sogar gesetzlich festgeschrieben. Aufgrund der bestehenden Intransparenz ist ein Dialog zwischen den Vertragspartnern in der Praxis oft nicht möglich. Auch die Rechtsansprüche auf Richtigstellung und Löschung der Daten versagen weitgehend.

Gerade aufgrund der Masse an Verbraucherkrediten sowie der rasanten Digitalisierung sämtlicher Lebensbereiche wäre eine verstärkte Problematisierung dieser Vorgänge angebracht. Die Verbreitung neuer Informations- und Kommunikationstechnologien hat die Erfassung, Archivierung und Analyse personenbezogener Daten zudem wesentlich erleichtert und in ihrer Qualität zugleich tiefer, weitreichender und subtiler gemacht. Letztlich ergeben sich daraus zahlreiche neue Möglichkeiten zur analytischen Vermessung von Sozialität.

Die digitale Spur in Form des individuellen Zahlungsverhaltens liefert einen detailreichen Einblick in den Alltag von VerbraucherInnen. Ob der aktuelle Arbeitgeber, die Höhe der Miete, oder die letzte Onlinebestellung ganz nach dem Motto „Zeige mir dein Zahlungsverhalten und ich sage dir wer du bist“ ist es der kreditgebenden Wirtschaft über derartige Datensammlungen möglich, ihrer KlientInnen zu analysieren und deren Glaubwürdigkeit und Zahlungsmoral zu werten. Mittels statistischer Prozesse werden ganze Bevölkerungssegmente kategorisiert und zu Gunsten der kreditgebenden Wirtschaft (aus)sortiert. Dabei entscheiden derartige Prozesse immer öfter darüber, ob und zu welchen Konditionen VerbraucherInnen überhaupt als Vertragspartner akzeptiert werden.

Doch den herangezogenen Informationen und Methoden mangelt es oft an Aktualität und unmittelbarem Bezug zum Zahlungsverhalten. Wie die Studie zeigt, kann die Vielschichtigkeit des Lebens durch die formale Methodik der Statistik bestenfalls annähernd, jedoch niemals vollkommen objektiv und wertfrei wiedergegeben werden. Wie bei jedem quantitativ-statistischen Verfahren, können im Zuge von Credit-Scoring-Prozessen diverse qualitative Besonderheiten der sozialen Wirklichkeit zwangsläufig nicht berücksichtigt werden. So kann die automationsunterstützte Kreditwürdigkeitsbewertung letztlich zu wirtschaftlicher Ungleichbehandlung und stereotyper Diskriminierung führen.

Eine adäquate Regulierung des Verbraucher-Scorings sollte daher jedenfalls die Transparenz gegenüber den Betroffenen sichern. Zudem ist über konkretere Schranken für die Anwendung derartiger Verfahren sowie die dabei verwendeten Datenarten nachzudenken. So sollte Arbeitgebern oder Vermietern jedenfalls untersagt sein, bei ihren Entscheidungen auf Scoring-Verfahren zurückzugreifen. Auch die Anwendung unterhalb einer zu bestimmenden Bagatellgrenze dient der Eingrenzung ausufernden Datensammelns und Überwachens. Letztlich geht es in der Regulierung des Scorings aber auch um die praktische Durchsetzbarkeit bereits existierender Rechtsansprüche.

 


[1] Studie: Rothmann, Robert; Sterbik-Lamina, Jaro; Peissl, Walter (2014): “Credit Scoring in Österreich”; Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ITA/ÖAW); Studie im Auftrag der Bundesarbeiterkammer (AK Wien); ITA-Projektbericht Nr.: A66. ISSN: 1819-1320 | ISSN-Online: 1818-6556. pdf

Siehe auch: science.apa.at

 

Quelle: http://www.univie.ac.at/identifizierung/php/?p=5674

Weiterlesen

SdK 75: Sebastian Vehlken über Computersimulation

SdK75_VehlkenComputerbasierte Simulationsmodelle haben einige Wissenschaften, wie die Atomphysik oder die Biologie, in den letzten Jahrzehnten maßgeblich verändert. Denn Forschung basiert nun nicht mehr nur auf den erprobten Verfahren von Theorie und Experiment, sondern versucht, Zukunft quantifizierbar zu machen – etwa zur Berechnung eines Restrisikos. Der Medienwissenschaftler Sebastian Vehlken arbeitet zur Theorie und Geschichte der Computersimulation und beschäftigt sich mit Schwarmforschung und Supercomputing. Er erklärt, welche Rolle Hollywood und Batman bei der Entwicklung von Simulationsmodellen spielte und warum Computersimulationen häufig Katastrophen imaginieren.

Linkliste: Sebastian Vehlken (IFK, Leuphana Universität Lüneburg), DFG-Kollegforschergruppe Medienkulturen der Computersimulation, Dissertation: Zootechnologien. Eine Mediengeschichte der Schwarmforschung, Emergenz (Wikipedia), Bionik (Wikipedia), Manhattan-Projekt (Wikipedia), Norbert Wiener (Wikipedia), Stafford Beer (Wikipedia), Viktor Mayer-Schönberger: Freiheit und Vorhersage – Über die ethischen Grenzen von Big Data, Wunderland Kalkar, Google Flu Trends (Wikipedia), Bruno Latour (Wikipedia), Eyjafjallajökull (Wikipedia)

Quelle: https://stimmen.univie.ac.at/podcast/sdk75

Weiterlesen

SdK 75: Sebastian Vehlken über Computersimulation

Computerbasierte Simulationsmodelle haben einige Wissenschaften, wie die Atomphysik oder die Biologie, in den letzten Jahrzehnten maßgeblich verändert. Denn Forschung basiert nun nicht mehr nur auf den erprobten Verfahren von Theorie und Experiment, sondern versucht, Zukunft quantifizierbar zu machen – etwa zur Berechnung eines Restrisikos. Der Medienwissenschaftler Sebastian Vehlken arbeitet zur Theorie und Geschichte der Computersimulation und beschäftigt sich mit Schwarmforschung und Supercomputing. Er erklärt, welche Rolle Hollywood und Batman bei der Entwicklung von Simulationsmodellen spielte und warum Computersimulationen häufig Katastrophen imaginieren.

Quelle: http://stimmen.univie.ac.at/podcast/sdk75

Weiterlesen

Workshop Offene Kulturdaten beim Open Knowledge Festival

Von Helene Hahn, Open Knowledge Foundation Deutschland e.V.

Die weltweite Open Knowledge Community trifft sich dieses Jahr beim Open Knowledge Festivals vom 15-17. Juli 2014 in der Kulturbrauerei, Berlin! Diskutiert mit uns zu Themen rund um Transparenz, Beteiligung und offenes Wissen.

Diesen Termin sollte man sich merken:

Am 15. Juli von 09.30-13.00 Uhr findet in Kooperation mit der OpenGLAM Initiative, dem DM2E Projekt, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland ein Workshop zu offenen Kulturdaten statt.

Während des Workshops stellen sich verschiedene Projekte aus Deutschland vor, die bereits mit offenen Kulturdaten arbeiten wie Wikidata, die Deutsche Digitale Bibliothek und Coding da Vinci, der Kultur-Hackathon. Gemeinsam mit internationalen OpenGLAM-Aktiven und Kulturinstitutionen diskutieren wir über die Möglichkeiten und Schwierigkeiten bei der Öffnung von Kulturdaten und darüber, wie man diese Hindernisse überwinden kann.

Angelehnt an erfolgreiche OpenGLAM-Initiativen aus der Schweiz und aus Finnland, die über ihre Erfahrungen bei der Datenöffnung im Kulturbereich berichten werden, wollen wir gemeinsam mit Euch eine OpenGLAM-Arbeitsgruppe in Deutschland gründen.

Alle Interessierten, bereits Aktive und Vertreter von Kulturinstitutionen sind herzlich eingeladen, den Workshop und die OpenGLAM-Arbeitsgruppe mitzugestalten.

Die Teilnahme ist kostenlos. Wir bitten um eine vorherige Registrierung.
Veranstaltungsort: Wikimedia Deutschland, Tempelhofer Ufer 23-24, 10963 Berlin
Weitere Infos: http://okfn.de/openglam/

Quelle: http://dhd-blog.org/?p=3741

Weiterlesen