Posts

  • This is the end

    Nachtrag 1: Ich fragte endlich wegen dem Datenaustausch unserer Buchhandlung bei der Stammdatenbetreuung bei Thaila in Hagen nach (wo unser Server steht) und erhielt zügig eine Antwort. Viele Lieferanten benützen proprietäre Formate, welche also nur für den jeweiligen Lieferant gelten. Die Daten vom VLB und auch von Zeitfracht (ehem KNV), BZ und Libri werden in ONIX übertragen. ONIX (musste ich zuerst nachschauen) steht für ONline Information eXchange und ist ein Datenformat für bibliografische Artikel, das über die ganze Verwertungskette des Buchhandels funktionieren sollte. Es basiert wie viele andere Formate auch auf XML. Thalia hat mit ThaliaLight noch ein eigenes Format für kleine Verlage, damit diese die Daten im .csv-Format zur Verfügung stellen können.
    Die Aufbereitung geschieht über einen Seeburger Konverter für das SAP Pricat-IDoc. => Seeburger ist ein Unternehmen unter anderem für den Bereich Datenaustausch, auf SAP basiert unser System und Pricat ist wiederum ein Format für Katalogs- und Preisformaten.
    Und da die Daten vom FTP Server abgeholt werden, geht man beim Protokoll von FTP aus – File Transfer Protocol: ein Protokoll für den Transfer von Dateien (es war einmal das Modul ARIS…)

    Nachtrag 2 - offene Fragen zu BIBFRAME: Am Beispiel “Winnie-the-Pooh” (das Original, nicht der Disney-Verschnitt!) konnte ich nachvollziehen, dass der Illustrator Ernst H. Shepard auch als Agent gilt aber mit der role “illus.”

    </bf:agent>   
       <bf:role >   
          <bf:Role >   
             <rdfs:label >illus</rdfs:label>   
          </bf:Role>   
       </bf:role>    
    
  • 9. Vorlesung

    Wenn ich die Notizen von der neunten und letzten Vorlesung durchgehe, bleibe ich als erstes bei den horizontalen und vertikalen Suchmaschinen hängen. Da war doch was….IRGR….Bekavac….doch finde ich zuerst nichts in den Unterlagen….dann bei der Stichwortsuche im Buch “Suchmaschinen verstehen” von Dirk Lewandowski stosse ich auf dieselben Ausdrücke. Er verwendet die folgende Aufteilung:
    (Web-)Suchmaschinen, Spezialsuchmaschinen, Metasuchmaschinen, Webverzeichnisse, Social-Bookmarking-Dienste und Frage-Antwort-Dienste
    Gemäss dieser Terminologie wird anstelle Spezialsuchmaschinen auch von vertikalen Suchmaschinen und anstelle Web-Suchmaschinen auch von Universalsuchmaschinen oder eben von horizontalen Suchmaschinen gesprochen.
    In den Vorlesungen zu IRGR wurde dagegen nach Art der Suche unterschieden:
    Lokale Suche, Katalogbasierte Suche, Roboterbasierte Suche und Metasuche
    (Ich gehe bewusst nicht weiter auf die zwei Unterteilungen ein, da das zu weit vom Thema abweichen würde.)

    Zur Marktübersicht: im letzten Semester schrieb ich eine Arbeit über das Projekt der Bibliotheken Schaffhausen, die ein neues LMS suchten und einführten (bereits unter Vorlesung 3 erwähnt). Man entschied sich für NetBiblio von AlCoda. Es ist ein serverbasierendes System und zum synchronisieren der Katalogsdaten wird ebenfalls OAI-PMH eingesetzt. Vermutlich stiess bereits damals auf diesen Begriff und vergass ihn wieder…

  • 8. Vorlesung

    Als erstes schaute ich mir nach der Vorlesung das Interview mit Kirsten Jeude an. In meinen Augen fasst sie in der Beschreibung ihrer Arbeit auch recht gut zusammen, was einen grossen Teil des Inhaltes dieses Moduls ist. Es geht darum, wie die Metadaten erfasst sind, also nach welchem Standard oder in welcher “Sprache”. Wenn diese Metadaten ex-, importiert oder zusammengefasst werden, braucht es eine “Dolmetscherin”, welche dies in eine einheitliche “Sprache” oder einen einheitlichen Standard machen kann, damit alles lesbar ist. Doch da ich bis jetzt und auch während diesem Semester nur ein “Benutzer” der Daten und deren Metadaten bin und überhaupt nichts mit dem “dolmetschen” zu tun habe, kann ich während den Vorlesungen nur zuhören und nach Anleitung arbeiten. Bei einzelnen Stichwörtern versuche ich mir selber Links zu bereits gehörten zu erstellen. So heute zum Beispiel JSON. Schon gehört aber wo? Unter anderem stiess ich während der Python-Programmierung darauf. Da lernten wir auch Befehle anzuwenden um Daten in JSON-Format zu übertragen. Aber wie es genau ging? Uff – vor zwei Jahren gelernt und nie angewendet….

    Die Tipps zum Lesen und Vertiefen sind sicher toll, doch fehlen mir Kopf und Zeit für mehr. Schade!

    Zum VuFind: anscheinend wäre die Idee der letzten Übung (Vorlesung 7 Übungen) gewesen, dass wir die Konfigurationen auch selber machen können. Nur wo? Es gibt also wiedermal eine Mail an die Dozenten. Solr lerne ich ungewollt bereits näher kennen. Anscheinend war eines meiner Probleme bei der VuFind-Installation, dass die Erlaubnis für Solr Zugriff auf die Log-Dateien (?) fehlte. Dies konnte ich wenigstens schnell nachholen. Für den Rest der Vorlesung könnte ich die Unterlagen abschreiben. Die fassen gut den Inhalt zusammen und auch das was ich mitnehme. Das sind keine 2000 Zeichen, ich weiss.

  • Übungen zur 7.Vorlesung

    Ich muss noch vorausschicken, dass ich erst kurz vor der achten Vorlesung zum Schauen des Videos “VuFind: Configuring Search and Facet Settings” kam. Grund dafür waren Probleme bei der Installation von VuFind. Zweimaliges Zurücksetzen und erneutes Installieren halfen leider auch nicht.
    Weitere Abklärungen der Dozenten ergaben, dass von der früheren KOHA-Installation her, der Webserver irrtümlich versuchte Anfragen an KOHA anstatt an VuFind weiterzuleiten. Ob es irgendwie mit den Problemen bei der KOHA-Installation zusammenhängt? Ich fragte mal bei den Dozenten nach. Falls ja, reiche ich die Antwort noch nach.

  • 7. Vorlesung

    Ich sitze ein wenig ratlos vor meinem Laptop und versuche meine 3000 Zeichen zur 7. Vorlesung auf das Papier, respektive auf den Bildschirm zu bringen. Nicht dass die Vorlesung nicht gut gewesen wäre. Aber die Übungen mit OpenRefine waren einfaches Befolgen von Anleitungen und ich holte nicht wirklich eigene Erkenntnisse daraus, die ich nun aufzeigen könnte. Und als “Von CSV zu MARCXML” kam, war ich recht verloren.

    Doch von Anfang an:
    OpenRefine ist ein Tool, welches für einen Laien wir mich, wie eine Tabellensoftware aussieht. Die für mich ersichtliche Besonderheit ist, dass man auch grosse Datensätze relativ gut “am Stück” bearbeiten kann. So zum Beispiel via Facetten die Korrektur und Zusammenlegung der Sprachcodes oder auch das Herausfiltern von den verschiedenen Schreibweisen der (vermutlich) gleichen Autoren. Auch hier kann man eine Zusammenlegung ausführen. So weit meine Excel-Kenntnisse gehen, ist dies damit nicht möglich. Eindrucksvoll war auch das Splitten von Spalten und die Einbindung von Wikidata. Allerdings beim Splitten war ich immer mehr auf verlorenem Terrain. Dass “split” für Splitten steht, wir das Komma in Klammern nehmen und dass das für eine Funktionsdefinition steht (in Python redeten wir von Tupel), die eckigen Klammern eine Auflistungsfunktion haben und “Null” für den ersten Wert steht (da das Zählen beim Programmieren bei 0 beginnt), konnte ich noch knapp nachvollziehen (Hallo Herr Weichselbraun!). Aber als es nachher um die Analyse von
    grafik ging, war ich auf verlorenem Posten.
    => Für diese Darstellung halfen mir weder die 4 Leersschläge noch der der Backtick, so kopierte ich diesesmal einfach einen Printscreen in mein Tagbuch.
    Wie bereits im Unterricht erwähnt, hat es die Befehle split, escape, replace und slice. Aber was die genau auslösen konnte ich nicht mehr nachvollziehen.

  • 6. Vorlesung

    Ausnahmsweise schreibe ich den Bericht zur Vorlesung erst zwei Tage später und schon verfluche ich mich beim Durchgehen der Notizen selber, ob meiner so schlecht lesbaren Handschrift.
    => Dass die Beiträge dennoch zum Teil recht viel später im Blog erscheinen, hat damit zu tun, dass ich auch die getippten Texte nochmals durchschauen muss (und vermutlich dennoch noch viele Fehler haben…)

  • Uebungen zur 5. Vorlesung

    Ich machte mich zuerst nochmals an die Aufgabe mit ArchivesSpace. Diesesmal klickte ich die gewünschte XML-Datei mit der rechten Maustaste an, wählte “Save Link As…” und übernahm es in den Ordner “Downloads”. Nachher gings im ArchivesSpace über Create usw wieder zum Import. Die Datei war einfach hochzuladen – wiedermal was gelernt, wenn auch nicht eines der Kernthemen in diesem Modul, aber man nimmt, was man bekommt. Dann: “… already in use…” – ich interpretierte das so, dass diese Datei schon einmal vorhanden ist und ich (wenn auch mit Umwegen) zumindest dies richtig machte.

  • 5. Vorlesung

    Zuerst muss ich mich anscheinend bei den Dozenten Felix Lohmeyer und Sebastian Meyer entschuldigen. In den letzten Wochen habe ich sie frisch-fröhlich mit all meinen Blogs vollgeschrieben und erst jetzt realisiere ich, dass ein Teil dessen gar nicht nötig gewesen wäre. Ich hoffe, es findet sich in all den Beiträgen zu den Übungen auch brauchbares Material, um bewertet zu werden.

  • Uebungen zur 4. Vorlesung

    Irgendwas habe ich gemacht und irgendwas entstand, respektive wurde importiert und exportier – aber ob’s so stimmt?

  • 4. Vorlesung

    Grob gesehen gibt es heute zwei Teile:
    1.ALMA
    2.Archiv Systeme / Software

  • Uebungen zur 3. Vorlesung

    Zu der Transferaufgabe “Installation ArchivesSpace” gibt es wenig zu schreiben. Ich gab die Befehle ein, das System reagierte und ich wartete…..wartete….wartete…. Bis ich bemerkte, dass immer wieder die gleichen Zeilen, Befehle etc über den Terminal liefen. Erst da realisierte ich, was es damit auf sich hat, als es hiess ArchivesSpace sei eine Webanwendung. Es läuft im Terminal immer weiter und wird nie auf meiner VDI nie installiert seinauf meiner VDI installiert sein. Wieder was gelernt. Wenigstens nützte ich die Wartezeit zur Weiterbildung:

  • 3. Vorlesung

    Dank der Vorarbeit von Herrn Lohmeier konnte ich die Zeit, in welcher Mitstudentinnen und Mitstudenten ihre KOHA-Probleme mit den Dozenten besprachen, nochmals für mein Lerntagebuch nutzen.
    Anscheinend nahm ich in der Vorlage zum Lerntagebuch unter Punkt 4 die zweimalige Aufforderung “…löschen Sie die Zeilen…” zu wörtlich und löschte zu viel.
    Diese “Lücken” konnte ich mit Hilfe einer Vorlage wieder auffüllen und zumindest ist der erste Eintrag lesbar… der zweite hingegen nicht. Es wird also im Laufe des Wochenendes wieder eine Mail an Herrn Lohmeier geben (auch an dieser Stelle ein grosses SORRY!). Es kommt eine Fehlermeldung, welche auf fehlenden index.html hinweist, doch erschliesst sich mir nicht, was genau fehlt oder falsch ist. Für mich als Laie gibt es auf GitHub schlicht zu viele Möglichkeiten etwas anzuklicken und ich habe ehrlich gesagt keine Ahnung was dann passiert oder nicht passiert.
    Beim zweiten Versuch konnte ich den zweiten Eintrag gar nicht mehr anklicken…..

  • Übungen zur 2.Vorlesung

    Zuerst ein Geständnis:
    Insgeheim hoffte ich, die Dozenten können mein Problem mit der KOHA-Bibliothek (siehe letzter Eintrag) nicht vor der nächsten Vorlesung lösen und ich käme somit um die Aufgabe der Installation und Einrichtung von KOHA und somit auch um diesen Eintrag herum. Denn wie Anfangs dieses Tagebuches beschrieben, versucht unsereins jede Stunde weniger Aufwand herauszuschinden. Ich weiss, ich weiss – ich sollte dankbar für die Hilfe sein und ich bin es auch wirklich!!!

  • 2. Vorlesung

    Starten wir gleich mittendrin, bei der Übung “Link zum Lerntagebuch ergänzen”. Diese Aufgabe steht für mich ein wenig symbolisch für viele Module, welche mehr oder weniger Stoffe aus dem IT Bereich behandeln.

  • Und los geht's

    Ein Vorwort, das im Nachhinein geschrieben wurde:
    Meine Einträge sind zum Teil geschwätzig, abschweifend und eventuell auch ein wenig launisch; ich hielt mich gleich mit dem ersten Eintrag (unabsichtlich) nicht an die Vorgaben und packte Erwartungen & 1.Vorlesungen in einen Text, etc….
    Doch entschied ich mich nach der abschliessenden Durchsicht, die Text so abzugeben, wie ich sie schrieb. Ich denke, das gibt mein Denken und Lernen am besten wieder.

    Zuerst eine kleine Rechnung, die allgemein mit unserem Teilzeitstudium zu tun hat und bei der Einführung der Dozenten zum erwarteten Aufwand erwähnt wurde.

subscribe via RSS