“Who are you, Digital Humanists?” – Internationale Umfrage

Zur Zeit läuft eine internationale Umfrage mit dem Ziel, Digital Humanists weltweit zu erfassen. Es geht dabei nicht nur um die Kontaktdaten, sondern auch um Informationen wie geographische Verteilung und Sprachkenntnisse. Bsiher gibt es weit über 700 Rückmeldungen, Deutschland ist aber noch vergleichsweise wenig repräsentiert.

Zu den Organisatoren gehören unter anderem Christof Schöch, Claudine Moulin und Lou Burnard. Hintergründe der Umfrage finden sich bei Who are we Digital Humanists? A Humanistica survey, die Umfrage ist direkt zugänglich unter der URL: https://docs.google.com/spreadsheet/viewform?pli=1&formkey=dG9vVGJTeERuOUtCdVFRRVZQQWp6Nmc6MQ#gid=0

Quelle: http://dhd-blog.org/?p=850

Weiterlesen

Wie schreibt man digital humanities?

Wie Kathleen Fitzpatrick in ihrem lesenswerten Buch “Planned Obsolence” (2011) [preprint] konstatiert, ist die Analyse dessen, was zu Digital Humanities gehört, leichter zu bewerkstelligen als DH wirklich zu praktizieren und die Kultur der kritischen Selbstreflexion bei der Texterstellung – immer noch das Hauptfeld der geistes- und kulturwissenschaftlichen Tätigkeit -  ist bislang selbst unter den DH Affinen zu wenig ausgeprägt. Die Gründungsveranstaltung der deutschen Dependance der DH in Hamburg hat es in der kontroversen Diskussion um das Pflichtabo der Literary & Linguistic Computing( LLC), das mit der Mitgliedschaft erworben werden muss, gezeigt: Kann es sein, dass sich die Neugründung der DHD mit einem kommerziell operierenden Verlag verbindet, der wichtige Elemente wie OA verweigert? Was aber muss eine DH Zeitschrift leisten oder genauer: was sollten Autoren oder die community tun, die im Bereich der DH arbeiten, kurz, wie “schreibt” man DH richtig? Ich habe mir vor dem Hintergrund der kontroversen Diskussion und unter dem Eindruck von Fitzpatricks glänzender Analyse zur Frage der Zukunft des wissenschaftlichen Publizierens einmal drei DH Zeitschriften angesehen (in subjektiver Auswahl), um nicht zuletzt auch im Sinne eines Selbstfindungsprozesses einige Kriterien für eine gute DH Publikation zu gewinnen.
Das Flaggschiff der DH, LCC, wird von Oxford University Press herausgegeben. OUP ist in seinem Ursprung zwar ein Universitätsverlag, arbeitet aber schon lange profitorientiert, nach kommerziellen, weniger wissenschaftlichen Gesichtspunkten (zu dieser Opposition siehe Fitzpatrick). Der Zugriff ist nicht frei, das Abo kostet für Privatpersonen samt Mitgliedschaft 123 Euro. Das liegt, was Zeitschriften im Bereich der Geistes- und Kulturwissenschaften anlangt, im oberen Bereich. Zum Vergleich: Gesellschaften wie die Renaissance Society of Amercia (RSA) veranschlagen samt Bezug der Renaissance Quarterly nur 50 USD. Ein Open Access Modell, sei es green way oder golden way, mittlerweile als Standard und guter Ton in den DH anerkannt, gibt es von Seiten des Verlages nicht (allenfalls unter Druck). Dass die Autoren im Besitz ihrer Rechte bleiben (vgl. das Editorial von Vanhoutte zum Heft 27 (2012) 1), ist zwar theoretisch ein Pluspunkt, der praktische Nutzen für OA ist jedoch zweifelhaft. Z.B. hat keiner der Beiträger des Heftes 27 (2012), 1  seinen Artikel online gestellt (Suche mit Stichwort Autor,Titel + erste Zeile des Haupttextes; jeweils nur LLC Treffer, d.h. Google indexiert die Hefte). Schaut man sich die Dokumente und Services selbst an, so werden Texte als HTML und PDF (die älteren nur PDF) angeboten, was eine analytische Nachnutzung unterhalb der Titelebene erschwert, denn Texte sind in den DH nicht nur Gegenstände der Lektüre, sondern auch der computergstützten Analyse (vgl. Thaller, in Historical Social Research, 37 (2012) 3) und automatisierten Vernetzung (semantic web). Verknüpfungen funktionieren nur innerhalb des Systems bzw. weitgehend unter Ausschluss nicht kommerziell arbeitender wissenschaftlicher Institutionen (Google Books, crossRef, etc.). Kodierungen von Entitäten im Text (Personen, Orte, Körperschaften, etc.) fehlen. Zitiert wird auf der Dokumentebene, feinere Adressierungen sind mittels Fragment-Identifier auf Grobkapitelebene möglich (dort nicht dokumentiert und daher nicht evident). Basis beibt das Paginierungssystem für Druckerzeugnisse. Erfreulicherweise wird eine DOI zum persistenten Zitieren geliefert. Mit DOI stehen auch weitere Funktionalitäten von crossRef zur Verfügung. Die institutionelle Langzeitarchivierung, die auch Access einschließen würde, ist ungewiss (zum Problem bereits Donald J. Waters, Urgent Action Needed (2005)). OUP untersagt es (deutschen) Bibliotheken, Titel herunterzuladen und selbst zu indexieren, so dass keine Möglichkeit besteht, Texte (langzeitzu)archivieren, zu aggregieren, in Mashups zu verbinden oder nach eigenen Suchkriterien und Rankinkmechanismen zu bearbeiten, allesamt Desiderate für DH Anwendungen (vgl.  zum Prinzip Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale. In Gabriel Bodard/Juan Garcės, Open Source Critical Editions: A Rationale, In:  Text editing, Print and the Digital World, 83-98).  Möglichkeiten zur freien Annotation innerhalb des Systems und damit eine transparente Alternative zum geschlossenen peer-review System gibt es nicht (Fitzpatrick, Kap.1). In nuce, eine am analogen Modell orientierte profitorientierte Zeitschrift mit einem überkommenen geschlossenen peer-review Modell, das den Nutzen gerade für den analytischen Teil der DH zweifelhaft erscheinen lässt. Natürlich hat die Verbindung mit einem kommerziellen Verlag auch Vorteile. Der Herausgeber, Edward Vanhoutte, hebt hervor, dass mit den erwirtschafteten, nicht unerheblichen Gewinnen DH Projekte gefördert und die freie Schwester DHQ unterstützt werden. Doch bleiben prinzipielle Bedenken. Bei allen Verlockungen des Geldes sollte man gerade für das Flaggschiff der DH die Gefahren einer solchen Verbindung nicht unterschätzen ( vgl. Fitzpatrick und die zunehmende Kommerzialisierung am Beispiel einer ähnlich gelagerten Kooperation der der American Anthropological Association mit Wiley-Blackwell, S. 183f.).
Eine weitere im deutschsprachigen Raum etablierte Zeitschrift ist das Jahrbuch für Computerphilologie - online, hg. v. Georg Braungart, Peter Gendolla und Fotis Jannidis. Die Zeitschrift ist OA. Texte werden nur in HTML angeboten.  Angaben zum persistenten Adressieren finden sich nicht (DOI, URN, PURL o.ä.), die einzelnene Paragraphen sind zwar benannt, aber nicht über z.B. Fragmant-Identifier anspringbar (hier sollten zumindest Anker für interne Links eingefügt werden).  Die Langzeitarchivierung ist über die Deutsche Nationalbibliothek gesichert. Leider werden keine Angaben zur Lizenz gemacht (z.B. CC), so dass ein Forscher oder eine Institution (Universität, Bibliothek, Wikipedia) im Falle einer (textanalytischen) Nachnutzung theoretisch immer anfragen müsste, ob Indexierung und Archivierung möglich sind.  Eine automatisierte Nachnutzung ist auf der Basis des HTML Codes wie bei LLC zwar möglich, aber wie dort alles andere als optimal. Z.B. wäre es nur auf der Basis der class-Attribute möglich, Fußnoten in einer  Suche zu differenzieren. Kodierungen von Entitäten fehlen ebenso wie stabile Verlinkungen von Literatur (zum Nachweis von Querververlinkungen). Systemimmanente Annotations- oder Feedbackmöglichkeiten gibt es nicht. Das Review-Verfahren liegt in der Hand der im Feld wissenschaftlich ausgewiesen Herausgeber, was sicher nicht schlecht ist, aber durch ein flankierendes offenes Annotationssystem gewinnen könnte. Dessen ungeachtet zeigt die Zeitschrift, wie sich mit relativ geringem Aufwand qualitativ hochwertige Beiträge online bringen lassen. Die Verbindung der Online Ausgabe zum mentis Verlag ist eher lose. Die Zeitschrift nutzt sinnvoll die Kompetenzen des Verlages im Print-Bereich, ohne sich ihre Freiheiten beschneiden zu lassen. Schwächen liegen vor allem darin, dass zuviel Wert auf Präsentation und zu wenig auf Möglichkeiten zur automatisierte Verarbeitung gelegt wird. Mit einem deutlich formulierten freien CC-Lizenzmodell könnte man dies ggf. verbessern, indem dadurch Interessenten in die Lage versetzt würden, die Texte herunterzuladen, mit entsprechenden tools zu “strukturieren” und neu zu indexieren.

Ein letzter Blick gilt denen in vielerlei Hinsicht hervorragenden Digital Humanities Quarterly (DHQ). Die erste positive Überraschung ist die Bereitstellung nicht nur als HTML, sondern auch XML, das sich an TEI orientiert, wenn auch nicht konsequent. So haben die Herausgeber proprietäre Namensräume (dhq:) integriert. Hier finden sich echte Strukturinformationen z.B. zu den zitierten Titeln, allerdings wurde – wohl aus Gründen des Aufwandes – darauf verzichtet, Entitäten zu kodieren. Hier zeigt sich ein Problem, dass viele DH Publikationen betrifft, dass nämlich Autoren nach wie vor in klassischen Formen wie WORD oder PDF liefern. Würde man die Ablieferung von XML zur Pflicht machen, wären im Vertrauen auf den Wunsch des Autors, es möglichst professional zu getstalten, weit differenzierte Kodierungen möglich. Die Kodierung selbst liesse sich durch passende Schemata steuern. DHQ bietet neben den eigentlichen Publikationsfunktionalitäten, eine Reihe von social services, wie Diskussions- und Annotationsmöglcihkeiten, die im wissenschaftlichen Umfeld perspektivisch unverzichtbar sind. Hervorzuheben ist, dass auf eine CC Lizenz geachtet wurde, die jedoch mit einer Unklarkeit behaftet ist. Die verwendete sehr enge Lizenz BY-NC-ND bedeutet einerseits, dass “kommerzielle” aber offene Player wie wikipedia ausgeschlossen werden, andererseits ist ND interpretationsbedürftig. Das in der Publishing-Policy  zugesicherte Recht “to include it in other aggregations and indexes to achieve broader impact and visibility” wäre auf der Basis von ND (=”You may not alter, transform, or build upon this work”) eigentlich nicht sinnvoll möglich, denn wie soll eine andere Aggregation aussehen, die keine Änderungen vornimmt? Was ist hier eigentlich dasenige, was nicht verändert werden darf? Hier bedarf es weiterer Präzisierungen. Zu Persistent Linking findet sich bedauerlicherweise nichts. Die Artikel lassen sich auf Paragraphenebene mittels Fragment-Identifiern adressieren. Die Qualität wird im peer review Verfahren sichergestellt, wobei die Zeitschrift engagierte Experten aufruft, sich als reviewer zu beteiligen (zu diesem Thema s. Fitzpatrick wie oben).

Insgesamt ist zu beklagen, dass auf der Artikelebene keine professionelle Erschließung in Bibliotheksverbünden stattfindet, sondern man sich mehr oder weniger mit Google oder privatwirtschaftlichen Suchmöglichkeiten behelfen muss. Hier sind Bibliotheken in der Pflicht, die stärker als bisher auch mit entsprechenden Lizenzen ausgestattete OA Publikationen archivieren und nachweisen sollten.

Aus diesen eher kursorischen Betrachtungen scheinen mir folgende Punkte für eine gute DH Publikation, die mehr sein will als ein Druck im Netz (typischerweise als digitale Inkunabel im PDF Format), empfehlens- und bedenkenswert:

  • OA mit einer freien Lizenz. Idealerweise CC BY-SA. Gemeint sollte damit sein, dass der Name des Autors und die URL der Originalpublikation genannt sein müssen. So ist einerseits die Urform im Sinne von ND referenzierbar, andererseits aber jede Art von Nachbearbeitung (Aggregation, Mashup, Archivierung, Indexierung nach eigenen Rankingmechanism, Textanalyse etc.) möglich. Eine kommerzielle Nachnutzung ist erwünscht, wenn sie das Resultat der Bearbeitung nicht einschließt und unter gleichen Bedingungen weitergibt (z.B. wikipedia). Dass muss nicht bedeuten, dass man kommerzielle Geschäftmodelle, die Services bieten (z.B. spezielle akademische Suchmaschienen), ausschließt. Das Verhältnis von Publikationsoberfläche (HTML, PDF), Strukturebene (XML) und Index bedarf jedoch lizenzrechtlich betrachtet präzisierender Erläuterungen, die ich hier nicht anstellen kann.
  • Persistent Linking (DOI, URN, PURL, Handle usw.) sollte immer mitbedacht werden. Wünschbar wären feinere Granularitätsstufen auf Paragraphen oder, wo möglich, sogar auf Wortebene (z.B. mit Xpointer-Techniken). Verbunden damit sind auch Verlinkungsmechanismen, wie wie in semantic web Anwendungen genutzt werden können (z.B. LOD)
  • Texte sollten nativ in XML verfasst oder von Autoren in XML geliefert werden. Portale wie TextGrid oder Editoren wie oXygen können dazu beitragen, den Schritt von einer den Druck simulierenden zu einer nativen DH Publikation zu erleichtern. Dabei wäre die Anwendung von Standards (z.B. TEI) sehr sinnvoll, um stärker als bisher analytische und automatisierte Nutzungsmöglichkeiten (semantic web) zu eröffnen.
  • Publikationen sollten sich zur Qualitätssicherung stärker transparenten peer-review Verfahren und Annotationsmöglichkeiten bedienen (vgl. Fitzpatrick)
  • Zeitschriften-Portale sollten stets Möglichkeiten des wissenschaftlichen Austausches mitbedenken (Kommentar- und Annotationsfuntionen). Dabei können Standards wie der der Open Annotation Collaboration hilfreich sein.
  • Infrastruktureinrichtungen wie Bibliotheken sollten sich stärker als bisher in die Katalogisierung und das Hosting von DH  Angeboten einbringen, um die technische Seite zu betreuen und die Langzeitarchivierung sicherzustellen. Zugleich müssten sie sich stärker wissenschaftlichen Netzwerken bzw. Fachcommunities öffnen, um durch entsprechende Angebote eine Basis zu schaffen, wissenschaftliche Publikationen wieder als Teil der universitären Infrastruktur und weniger als Gegenstand von “Business-Modellen” (vgl. Fitzpatrick, 181) sichtbar werden zu lassen.

Quelle: http://dhd-blog.org/?p=673

Weiterlesen

CFP: Digital Classicist Seminar Berlin

[english version below]

Das neu gegründete Digital Classicist Seminar Berlin [1], das erstmals im Wintersemester 2012/13 stattfinden wird, freut sich den Call for Papers bekannt zu geben. Diese Seminarreihe orientiert sich an dem Digital Classicist Work in Progress Seminar [2] in London und wird unter anderem von dem Deutschen Archäologischen Institut  und dem Excellenzcluster TOPOI und in Berlin veranstaltet.

Sie sind herzlich dazu eingeladen, Vorschläge zu Beiträgen einzureichen, welche die innovative Anwendung moderner digitaler Methoden, Ressourcen und Techniken in den Altertumswissenschaften thematisieren. Vorschläge in deutscher oder englischer Sprache im Umfang von 300-500 Wörtern (ohne bibliographische Angaben) können bis 14. September 2012 über die unten genannte Webseite hochgeladen werden [3].

Die Vorträge können folgende Themenbereich adressieren: digitale Texte, sprachwissenschaftliche Technologien, Bildverarbeitung und Visualisierung, Linked Data und Semantic Web, Open Access, Raum- und Netzwerk-Analyse und andere digitale oder statistische Methoden. Besonders werden dabei Vorschläge begrüßet, aus denen hervorgeht, wie dank der Anwendung digitaler Methoden fachübergreifende Fragen beantwortet werden können. Die im Seminar präsentierten Inhalten sollten sowohl Philologen, Historiker und Archäologen als auch Informationswissenschaftler und andere Geisteswissenschaftler mit Interesse an den genannten Fragestellungen ansprechen.

Die Seminare werden alle 14 Tage dienstagabends um 17.00 – 18.30 Uhr im Hörsaal des TOPOI-Hauses in Berlin-Dahlem stattfinden [4]. Das vollständige Programm wird Ende September bekannt gegeben. Es ist geplant, Vortragende bei der Finanzierung der Reise- und Unterkunftskosten zu unterstützen. Nähere Details hierzu werden bei Veröffentlichung des Programm mitgeteilt.

[1] http://de.digitalclassicist.org/berlin/

[2] http://www.digitalclassicist.org/wip/

[3] http://de.digitalclassicist.org/berlin/submit

[4] http://www.topoi.org/buildings/

CFP: Digital Classicist Seminar Berlin

We are pleased to announce the Call for Papers for the newly established Digital Classicist Seminar Berlin [1], which will run for the first time in the Winter Term 2012. This initiative, inspired by and connected to London’s Digital Classicist Work in Progress Seminar [2], is organised in association with the German Archaeological Institute and the Excellence Cluster TOPOI.

We invite submissions on research which employ digital methods, resources or technologies in an innovative way in order to enable increased understanding of the ancient world at large. Abstracts, either in English or in German, of 300-500 words max. (bibliographic references excluded) should be uploaded by midnight MET on September 14, 2012 using the special submission form [3].

Themes may include digital text, linguistics technology, image processing and visualisation, linked data and semantic web, open access, spatial and network analysis, serious gaming and any other digital or quantitative methods. We welcome seminar proposals addressing the application of these methods to individual projects, and particularly contributions which show how the digital component can lead to crossing disciplinary boundaries and answer new research questions. Seminar content should be of interest both to classicists, ancient historians or archaeologists, as well as information scientists and digital humanists, with an academic research agenda relevant to at least one of these fields.

Seminars will run fortnightly on Tuesday evenings (17:00-18:30) starting in October 2012 in the TOPOI Building Dahlem [4], hosted by the Excellence Cluster TOPOI. The full programme will be finalised and announced in late September. It is planned to grant an allowance to speakers for travelling and accommodation costs. Further details will be available once the program is finalised.

[1] http://de.digitalclassicist.org/berlin/

[2] http://www.digitalclassicist.org/wip/

[3] http://de.digitalclassicist.org/berlin/submit

[4] http://www.topoi.org/buildings/

Quelle: http://dhd-blog.org/?p=777

Weiterlesen

?DH? – Verbandsgründung ohne Name, Satzung und Mitglieder?

Dienstag, der 17. Juli 2012 war ein guter Tag für die Digital Humanities in Deutschland. Die DHD-Unconference im Rahmen der DH2012 war eine großartige Gelegenheit, den Stand der digitalen Geisteswissenschaften im deutschprachigen Raum zu demonstrieren und die Gestaltung ihrer Zukunft zu diskutieren. Ebenso spannend wie die Science-Slams und die Podiumsdiskussion verlief die zwischen beiden Blöcken angesetzte Session zur Gründung eines Verbandes zu den Digital Humanities im deutschprachigen Raum. Dem Team um Jan Christoph Meister und den weiteren Mitstreitern aus der Community ist für die Vorbereitung aller drei Teile sehr zu danken.

Es zeigte sich jedoch, dass es hinsichtlich der Gründung eines Verbandes zu den Digital Humanities im deutschsprachigen Raum doch noch mehr Diskussionsbedarf gibt, als von den Organisatoren vielleicht erwartet worden ist. Etliche Punkte der Satzung, die zu der Sitzung verteilt wurde und wohl den meisten Teilnehmern vorher nicht bekannt war,* boten Anlass zu Nachfragen und Verbesserungsvorschlägen. Dies betraf auch ganz zentrale Fragen, so dass die Satzung als Ganzes wohl für den Moment als hinfällig betrachtet werden muss. Ich gehe hier nur auf zwei wesentliche Punkte ein, die noch einer grundsätzlichen Debatte und Klärung bedürfen.

Als Name für den Verband ist “Digital Humanities Deutschland” vorgeschlagen worden, was sinnvoll ist, wenn der Verband vor allem als Lobby-Verband für die Vertretung von Interessen in einem nationalen Kontext oder als Vertretung nationaler Interessen nach außen fungieren soll. Soll er dagegen den gemeinsamen Kulturraum der deutschsprachigen Geisteswissenschaften vertreten, so muss eine Identifikation mit dem Verband auch für Kollegen aus Österreich, der Schweiz, Luxemburg und für deutschsprachige Mitglieder weltweit möglich sein. Dazu sind verschiedene erste Alternativvorschläge genannt worden. “Digital Humanities im deutschsprachigen Raum” ist zwar präzise, wirkt aber leider sprachlich etwas umständlich. “Digital Humanities des deutschsprachigen Raumes” stärkt zwar den Gebrauch des Genitivs, würde aber zum Akronym “DH-DDR” führen. “Digital Humanities deutsch” ist kurz und präzise, provoziert aber vielleicht bei manchen die Konnotation des “man spricht deutsch”. “German Digital Humanities” wäre möglich, sollte aber auf die Zustimmungsfähigkeit der Kolleginnen  aus Österreich und der Schweiz überprüft werden. Ich selbst schicke noch folgende Ideen in’s Rennen, die vermutlich auch nicht besser sind: “Digital Humanities D/AT/CH” sowie “Digital Humanities DACH”. Beide würden ein Beibehalten der Abkürzung DHD erlauben. Beide müssten aber auf die Zustimmungsfähigkeit der Kollegen außerhalb von D/AT/CH geprüft werden. Die gesamte Bennenungsproblematik und die möglichen Lösungen verweisen auf eine grundsätzliche Frage: wie sollen solche Fragen eigentlich geklärt werden? Eine konsensuale Namensfindung sollte wohl nicht in einer Vorbereitungsgruppe oder einem Vorstand organisiert werden, sondern die gesamte Community der potentiellen Verbandsmitglieder einbeziehen.

Das gilt auch für den nächsten wichtigen Punkt, der auf der Versammlung bereits problematisiert und andiskutiert worden ist: Die Frage der Mitgliedschaft. Hier sah der ursprüngliche Satzungsentwurf vor, dass eine Mitgliedschaft durch das Abonnement der Zeitschrift “LLC – Journal of Digital Scholarship in the Humanities” erfolgen sollte. Dies hätte den organisatorischen Vorteil, dass die Mitgliederverwaltung und die Einziehung und Weiterleitung der Mitgliedsbeiträge durch Oxford University Press erfolgen würde. Dem stehen aber mindestens drei gravierende Vorbehalte gegenüber: Erstens ist gefragt worden, ob die deutschen Digital Humanities sich wirklich in dieser Weise an einen Verlag binden wollen, dessen Haltung zu Open Acess und freier Wissenschaftskommunikation möglicherweise nicht vollständig mit den Zielen eines DH-Verbandes in Einklang steht. Zweitens ist nochmals genau nachzurechnen, welcher Anteil der Abonnementskosten (derzeit 53€ für Einzelpersonen für ein reines online-Abonnement) nach den Einbehaltungen durch OUP und den Abführungen an die ALLC eigentlich dem Verband zugute kommen würden und ob diese Quote noch zu rechtfertigen ist, wenn sie z.B. nur 30% betragen würde. Drittens steht zu befürchten, dass trotz der Umbenennung des zuvor (und auf der Webseite immer noch) “Journal for Literary and Linguistic Computing” heißenden Journals, sein weitgehend unveränderter Charakter und Inhalt es schwer machen wird, z.B. Kunsthistoriker oder Archäologen davon zu überzeugen, diese Zeitschrift zu abonnieren, um Mitglied des Verbandes zu werden.

Nachdem der Verbandsname für eine weitere Diskussion geöffnet worden ist und die Frage der Mitgliedschaft aus der Satzung herausgenommen wurde und nun Gegenstand einer noch zu schaffenden Geschäftsordnung werden soll, ist immerhin ein Vorstand gewählt worden. Nach der Aufstellung einer Kandidatenliste, die auch das fachliche Spektrum und die Verortung von Digital-Humanities-Akteuren berücksichtigen sollte, konnte jeder Teilnehmer der Versammlung bis zu sechs Stimmen abgeben, mit denen ein sechsköpfiger Vorstand ermittelt worden ist. Dabei führt dieses Wahlsystem allerdings dazu, dass selbst relative Mehrheiten (die dann eben für alle sechs Plätze eine Mehrheit haben) sich leicht in einer überproportionalen Repräsentation niederschlagen. Dieses Phänomen würde noch verschärft werden, wenn – wie in der Satzung vorgesehen – periodisch immer nur ein Teil des Vorstandes neu gewählt würde.

Angesichts der höchst unklaren Situation, der weitgehenden Hinfälligkeit der Satzung, dem Fehlen eines Namens und der Unklarheit über die Mitgliedschaft scheint folgendes nahe zu liegen:

  1. Der gewählte Vorstand möge sich als “Gründungsvorstand” eines “Digital-Humanities-Verbandes in Gründung” begreifen. Seine Legitimation sollte dann, wenn der Verband zu einer konsensfähigen Satzung und zu einer gewissen Menge an Mitgliedern gekommen ist, durch eine erneute Wahl aller Vorstandsmitglieder erneuert werden. Dabei sollte sicher gestellt werden, dass die Abbildung der Diversität der Community in den Vorstand nicht durch das Wahlsystem behindert wird.
  2. Die Aufgabe des Gründungsvorstandes sollte darin liegen, binnen Jahresfrist (oder Halbjahresfrist) einen Prozess zu organisieren, der zur Ausarbeitung einer mit der Community abgestimmten Satzung und Geschäftsordnung und zur Aufnahme von Mitgliedern führt.
  3. Dieser Prozess sollte, wie anschließend auch die laufende Arbeit des Verbandes dem Ziel demokratischer Entscheidungsprozesse und einem möglichst großen Maß an Transparenz und Partizipation verpflichtet sein. Dazu ist ein geeignetes Forum einzurichten. Namensfindung und Satzungsentwicklung (um nur zwei Beispiele zu nennen) auf den Vorstand zu beschränken (wie anscheinend im Vorstand beschlossen) und die Fachöffentlichkeit und die potentiellen Mitglieder davon auszuschließen entspricht nicht der gebotenen Transparenz und Teilhabe.
  4. Es sollte zunächst ein Konsens darüber herbeigeführt werden, ob und in welcher Weise der zu gestaltende Verband sich als fachlich und räumliche inklusiv betrachten soll und sein Ziel darin sieht, die digitalen Geisteswissenschaften in ihrer ganzen fachlichen und räumlichen Breite einzubinden.

Alles weitere sollte zunächst Gegenstand einer möglichst breiten Diskussion der interessierten Fachgemeinschaft sein.

Siehe auch …

* Der Entwurf, der von google noch unter http://dig-hum.de/sites/default/files/dhd-satzungsentwurf-v4.pdf indiziert worden ist, ist dort inzwischen leider nicht mehr verfügbar.

Quelle: http://dhd-blog.org/?p=740

Weiterlesen

Nie mehr Nerds im Netz, nur noch Normalos?

Die Zeit der Nerds im Netz sei vorbei, meint Florian Knoke in Spiegel Online, denn: “Das Internet gehört den Normalos“. Ja, mehr noch: Die Nerds hätten das Netz zwar gern zu ihrem Erfolgsprojekt gemacht, aber sowohl die Cordhosen-Träger-Lötkolben-Zeilenkommando-Tipper der 80er- und 90er-, wie auch die Neue-Welt-Ordnung-Idealisten der 00er-Jahre hätten den angestrebten Einfluss auf die Entwicklung [...]

Quelle: http://weblog.histnet.ch/archives/3528

Weiterlesen

scholarz.net – Virtuelle Plattform für Forscher

Logo von scholarz.net

Logo von scholarz.net

“Besser forschen” das ist das Angebot, mit dem das junge Internetportal www.scholarz.net an interessierte Wissenschaftler/-innen herantritt. Das Portal bietet seinen Nutzern nicht nur eine moderne Literatur- und Notizenverwaltung, von der nahezu jedes denkbare Forschungsprojekt profitieren kann, sondern auch klassische Community-Funktionen wie Profilerstellung, das Anlegen von Gruppen und das ‘mappen’ von Freunden. Die so dokumentierten Projekte können samt Literatur und weiterführenden Gedanken allen anderen Nutzern von scholarz.net zugänglich gemacht werden. Das Konzept hinter dem Portal entstand vergangen Jahr mit einem Forschungsprojekt zum “Wissenschaftlichen Arbeiten im Web 2.0″ an der Julius-Maximilians-Universität Würzburg. Drei Akademiker aus verschiedenen Disziplinen (Medienpsychologie, Medientechnologie, Germanistik und Volkswirtschaftslehre) untersuchten unter Leitung von Initiator Daniel Koch, welche Arbeitsgewohnheiten und Bedürfnisse Wissenschaftler/ -innen im Netz haben. Unter anderem wurde auch eine Umfrage mit 4.000 Teilnehmern überwiegend Doktoranden durchgeführt. Die erste Idee zum Projekt hatte Koch, als er für seine eigene Doktorarbeit erfolglos nach einem passenden Web 2.0-Tool suchte, das ihm die Literaturverwaltung erleichtern sollte. Bei der bloßen Untersuchung blieb es nicht: die gewonnenen Ergebnisse flossen in die Entwicklung der Internetplattform scholarz.net ein. Im Sommer 2008 ging die erste Version online. Gleichzeitig wurde eine GmbH gegründet, um die weitere Entwicklung und Vermarktung auf eine solide Grundlage zu stellen. Währenddessen lief das eigentliche Forschungsprojekt weiter.

Das neue Dashboard von scholarz.net

Das neue Dashboard von scholarz.net

Die Software für scholarz.net ist eine konsequente Neuentwicklung, die in Ruby on rails und Ajax geschrieben wurde. Als Datenbank wird MySQL verwendet. Verantwortlich für die technische Umsetzung ist Marc Willwacher. Solange sich das Projekt noch in der Beta-Phase befindet, wird es kostenlos bleiben. Für die Zukunft (nach dem Ende der Betaphase) ist ein Bezahlmodell ab 2,95 € im Monat vorgesehen. Einen Free-Account mit voller Funktionalität, bei dem lediglich die Datenmenge beschränkt ist, wird es aber auch künftig geben. Die während der Betaphase eingestellten Notizen und Literaturtitel bleiben auch in Zukunft kostenlos abrufbar.

Allerdings könnte scholarz.net demnächst Konkurrenz von Google Wave bekommen. Die Kollaborationsplattform soll in diesem Winter online gehen. Neben Funktionen wie E-Mail, Instant-Messaging und Wiki könnte sie auch schnell Erweiterungen wie z.B. eine Literaturverwaltung für die scientific community bieten. Schließlich soll Google Wave unter einer Open-Source-Lizenz veröffentlicht werden, so dass Änderungen vorgenommen und eigene Server mit der Software aufgesetzt werden könnten. Dadurch wird sie auch für Wissenschaftler interessant, wie Martin Fenner vor zwei Monaten in seinem Blog durchaus zurecht feststellte. Daniel Koch sieht dem aber gelassen entgegen. Als Kernkompetenz von scholarz.net betrachtet er ohnehin die Organisationssoftware: “Unsere Software ist auch und gerade für den einzelnen Wissenschaftler interessant und auf dessen Bedürfnisse abgestimmt.” Hinzu kommt, dass scholarz.net im Gegensatz zu Google eine “extrem strikte Datenschutzpolitik” verfolgt. Das liegt vor allem an den Bedürfnissen der Zielgruppe: Wissenschaftler/-innen sind eben ganz besonders darauf bedacht, dass Unbefugte keinen Zugriff auf Notizen und Literatur zu unveröffentlichten Arbeiten haben. “Wir wissen aus eigener Erfahrung, wie wichtig das Thema ist und verhalten uns entsprechend”, so Daniel Koch.

Eingabemaske eines Literaturtitels

Eingabemaske eines Literaturtitels

Derzeit wird noch eifrig am neuen Design gefeilt. Nach einem Jahr Testphase fiel auf, dass es an paar Stellen noch in der Bedienung hakte und daher wurde die Benutzeroberfläche einem umfassenden Redesign unterzogen. Die Screenshots und das neue Blogdesign lassen Gutes erahnen. Das neue Design soll bald in die Liveversion implementiert werden. Dann wird auch bald die Testphase zu Ende gehen und das Projekt offiziell ’stable’ werden.

Quelle: http://digiversity.net/2009/scholarz-net-virtuelle-plattform-fur-forscher/

Weiterlesen
1 66 67 68