background preloader

BackgroundKnowledge

Facebook Twitter

Open Content Alliance. Die Open Content Alliance (OCA) ist ein Konsortium von Unternehmen, nicht gewinnorientierten Organisationen und staatlichen Institutionen, das das Ziel verfolgt, ein freies Archiv von Texten und Multimediainhalten zu erstellen. Die Open Content Alliance wurde 2005 von Yahoo und dem Internet Archive gegründet und ist als Konkurrenzunternehmen zu Google Book Search zu sehen.

Die OCA sichert anders als Google Print die strikte Wahrung der Urheberrechte der Autoren zu. Im Rahmen der Diskussion um das Google Book Settlement traten viele weitere Organisationen, etwa wichtige US-Bibliotheken und -Bildungseinrichtungen[1]sowie die American Society of Journalists and Authors und die National Writers Union der Open Content Alliance bei.[2] Inzwischen hat das Projekt Open Library 22,6 Millionen Bücher bibliografisch erfasst (Stand: Dezember 2008). 1.046.822 Werke liegen vollständig digitalisiert vor.

Die Suche ist über Internet Archive und Open Library möglich. Beteiligte Organisationen[Bearbeiten] Internet Archive. Das Internet Archive in San Francisco ist ein gemeinnütziges Projekt, das 1996 von Brewster Kahle gegründet wurde. Es hat sich die Langzeitarchivierung digitaler Daten in frei zugänglicher Form zur Aufgabe gemacht. Dienste[Bearbeiten] Zum Web-Archiv gehört die Wayback Machine („Take Me Back“), mit der man die gespeicherten Webseiten in verschiedenen Versionen abrufen kann. Die Auswahl der zu speichernden Seiten erfolgt über den Dienst Alexa Internet. Alle dort hinterlegten URLs werden regelmäßig aufgerufen und archiviert.

Der Gesamtumfang betrug im November 2009 etwa 150 Milliarden Seiten. Es werden mehrere Scan-Center (2009 insgesamt zwölf) unterhalten, zum Beispiel in Richmond. Internet Archive in San Francisco (1996–2009) Neue Zentrale des Internet Archive seit November 2009 in einer ehemaligen Christian Science-Kirche Video einer Vorführung der Digitalisierungstechnik des Internet Archives von Brewster Kahle, 29. Kritik, Rechtslage und Schwächen[Bearbeiten] Siehe auch[Bearbeiten] Wissen. Wissen wird in der Erkenntnistheorie traditionell als wahre und gerechtfertigte Meinung (englisch justified true belief) bestimmt. Generell wird Wissen als ein für Personen oder Gruppen verfügbarer Bestand von Fakten, Theorien und Regeln verstanden, die sich durch den größtmöglichen Grad an Gewissheit auszeichnen, so dass von ihrer Gültigkeit bzw. Wahrheit ausgegangen wird. Paradoxerweise können daher als Wissen deklarierte Sachverhaltsbeschreibungen wahr oder falsch, vollständig oder unvollständig sein. Wortherkunft[Bearbeiten] Der Ausdruck ‚Wissen‘ stammt von althochdeutsch wizzan bzw. der indogermanischen Perfektform *woida ,ich habe gesehen‘, somit auch ,ich weiß‘ [1]; von der indogermanischen Wurzel *weid- leiten sich auch lateinisch videre ,sehen‘ und Sanskrit veda ,Wissen‘ ab.

Allgemeines[Bearbeiten] Wissen steht als grundlegender erkenntnistheoretischer Begriff im Zentrum zahlreicher philosophischer Debatten. Ein wichtiges Thema der Philosophie des 20. Definition[Bearbeiten] 1. 2. World Wide Web Consortium (W3C) Big Data. Darstellung der Wikipedia-Aktivität eines einzelnen Users (hier: eines Bots) über einen längeren Zeitraum in Form von Farben – ein typisches Beispiel, um sich mit Hilfe einer Visualisierung in Big Data zurechtzufinden. Hintergrund[Bearbeiten] Berechnungen aus dem Jahr 2011 zufolge verdoppelt sich das weltweite Datenvolumen alle 2 Jahre.[2] Diese Entwicklung wird vor allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von Telekommunikationsverbindungen (Call Detail Record, CDR) und Web-Zugriffen (Logdateien), automatische Erfassungen von RFID-Lesern, Kameras, Mikrofonen und sonstigen Sensoren.

Big Data fallen auch in der Finanzindustrie an (Finanz-Transaktionen, Börsendaten), sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik. Beispiele[Bearbeiten] Verarbeitung von Big Data[Bearbeiten]

SemanticWeb

Resource Description Framework. Das Resource Description Framework (RDF, engl. sinngemäß „System zur Beschreibung von Ressourcen“) bezeichnet eine technische Herangehensweise im Internet zur Formulierung logischer Aussagen über beliebige Dinge (Ressourcen). Ursprünglich wurde RDF vom World Wide Web Consortium (W3C) als Standard zur Beschreibung von Metadaten konzipiert. Mittlerweile gilt RDF als ein grundlegender Baustein des Semantischen Webs. RDF ähnelt den klassischen Methoden zur Modellierung von Konzepten wie UML-Klassendiagramme und Entity-Relationship-Modell. Im RDF-Modell besteht jede Aussage aus den drei Einheiten Subjekt, Prädikat und Objekt, wobei eine Ressource als Subjekt mit einer anderen Ressource oder lediglich einem Wert (Literal) als Objekt näher beschrieben wird. Mit einer weiteren Ressource als Prädikat bilden diese drei Einheiten ein Tripel („3-Tupel“). RDF-Modell[Bearbeiten] Beispiel[Bearbeiten] „ACME produziert Batterien“ Übertragen auf die Modellierung mittels RDF: Beispiele: Abfragen[Bearbeiten]

Serendipität. Der Begriff Serendipität (englisch serendipity), gelegentlich auch Serendipity-Prinzip oder Serendipitätsprinzip, bezeichnet eine zufällige Beobachtung von etwas ursprünglich nicht Gesuchtem, das sich als neue und überraschende Entdeckung erweist.[1] Verwandt, aber nicht identisch ist der weiter gefasste Begriff glücklicher Zufall; Serendipität betont eine darüber hinaus gehende Untersuchung, eine intelligente Schlussfolgerung oder Findigkeit. Herkunft[Bearbeiten] Erstmals hatte der britische Autor Horace Walpole, 4. Earl of Orford (1717–1797), den Ausdruck in einem Brief vom 28.

Vermutlich stammt die Geschichte der drei Prinzen von Serendip vom indisch-persischen Dichter Amir Khusro. 1557 wurde sie auch von dem italienischen Dichter Christoforo Armeno erzählt. Bekannte und bedeutende Beispiele[Bearbeiten] Der Dinosaurier Serendipaceratops wurde nach diesem Prinzip benannt, da seine Erstbeschreiber nur durch Zufall die wahren verwandtschaftlichen Beziehungen entdeckten. : Serendipität. Hypertext. Nutzen[Bearbeiten] Probleme[Bearbeiten] Ein Problem beim Arbeiten mit Hypertext ist das gezielte Auffinden von Informationen. Während literate Menschen über Jahrhunderte in der Rezeption von linearen Texten geschult worden sind, begann man erst mit der zunehmenden Verbreitung des World Wide Web seit Mitte der 1990er Jahre den Umgang mit komplexen Hypertexten zu erlernen.

Hilfsmittel wie Suchmaschinen und Suchfunktionen auf den Webseiten unterstützen den Nutzer. Ein weiteres Problem ist das Navigieren in Hypertexten, da vor allem in den Anfangsjahren häufig eine vom Autor vorgegebene Lesestruktur (z. Geschichte und Entwicklung[Bearbeiten] Das moderne Hypertext-Konzept wurde von Vannevar Bush im Jahr 1945 in einem Artikel As We May Think im Journal The Atlantic Monthly erwähnt. Ein Beispiel für ein hypertext-artiges Gedicht sind die Hunderttausend Milliarden Gedichte von Raymond Queneau (1961). Typen von Hypertext-Systemen[Bearbeiten] Siehe auch[Bearbeiten] Literatur[Bearbeiten] Internet der Dinge. In seinem Aufsatz von 1991 The Computer for the 21st Century[1] sprach Mark Weiser zum ersten Mal von dieser Vision.

Das Internet der Dinge bezeichnet die Verknüpfung eindeutig identifizierbarer physischer Objekte (things) mit einer virtuellen Repräsentation in einer Internet-ähnlichen Struktur. Es besteht nicht mehr nur aus menschlichen Teilnehmern, sondern auch aus Dingen. Der Begriff geht zurück auf Kevin Ashton, der erstmals 1999 „Internet of Things“ verwendet hat.[2] Bekannt wurde das Internet der Dinge durch die Aktivitäten der Auto-ID Labs.[3] Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen.

Allerdings kann eine eindeutige Identifikation von Objekten auch mittels Strichcode oder 2D-Code erfolgen. Zielsetzung[Bearbeiten] Abgrenzung[Bearbeiten] Das Internet der Dinge unterscheidet sich von dem Konzept der Selbststeuerung in der Logistik. Technologie[Bearbeiten] Beispiele[Bearbeiten] Forschung[Bearbeiten] Literatur[Bearbeiten] Systemtheorie. Die Systemtheorie ist sowohl eine allgemeine und eigenständige Disziplin als auch ein weitverzweigter und heterogener Rahmen für einen interdisziplinären Diskurs, der den Begriff System als Grundkonzept führt. Es gibt folglich sowohl eine allgemeine „Systemtheorie“ als auch eine Vielzahl unterschiedlicher, zum Teil widersprüchlicher und konkurrierender Systemdefinitionen und -begriffe. Es hat sich heute jedoch eine relativ stabile Reihe an Begriffen und Theoremen herausgebildet, auf die sich der systemtheoretische Diskurs bezieht.

Geschichte[Bearbeiten] Der Begriff Allgemeine Systemtheorie geht auf den Biologen Ludwig von Bertalanffy zurück. Kulturgeschichtlich geht der Systembegriff bis auf Johann Heinrich Lambert zurück und wurde unter anderem von Johann Gottfried Herder übernommen und ausgearbeitet. Die moderne Systemtheorie beruht auf unabhängig voneinander entwickelten Ansätzen, die später synthetisiert und erweitert wurden: Der Begriff Systemtheorie bzw. Kybernetik[Bearbeiten] Open Access. Open-Access.net-Logo Als Open Access (englisch für offener Zugang) wird der freie Zugang zu wissenschaftlicher Literatur und anderen Materialien im Internet bezeichnet. Ein wissenschaftliches Dokument unter Open-Access-Bedingungen zu publizieren, gibt jedermann die Erlaubnis, dieses Dokument zu lesen, herunterzuladen, zu speichern, es zu verlinken, zu drucken und damit entgeltfrei zu nutzen.

Darüber hinaus können über Freie Lizenzen den Nutzern weitere Nutzungsrechte eingeräumt werden, welche die freie Nach- und Weiternutzung, Vervielfältigung, Verbreitung oder auch Veränderung der Dokumente ermöglichen können. Unter dem Druck der steigenden Preise für wissenschaftliche Publikationen bei gleichzeitig stagnierenden oder schrumpfenden Etats in den Bibliotheken während der Zeitschriftenkrise bildete sich seit Beginn der 1990er Jahre eine internationale Open-Access-Bewegung. Geschichte[Bearbeiten] Am 11. Open-Access-Strategien[Bearbeiten] Goldener Weg[Bearbeiten] Grüner Weg[Bearbeiten] Open Data. Open Data bedeutet die freie Verfügbar- und Nutzbarkeit von, meist öffentlichen, Daten. Sie beruht auf der Annahme, dass vorteilhafte Entwicklungen unterstützt werden wie Open Government, wenn Daten für jedermann frei zugänglich gemacht werden und damit mehr Transparenz und Zusammenarbeit ermöglichen.

Dazu verwenden die Ersteller Lizenzmodelle, die auf Copyright, Patente oder andere proprietäre Rechte weitgehend verzichten. Open Data ähnelt dabei zahlreichen anderen „Open“-Bewegungen, wie zum Beispiel Open Source, Open Content, Open Access, Open Education und ist eine Voraussetzung für Open Government. Begriffsbestimmung „Offene Daten“[Bearbeiten] Zur Kennzeichnung von Daten als offene Daten gibt es verschiedene Lizenzhinweise wie zum Beispiel CC Zero. Forderungen der Open-Data-Bewegung[Bearbeiten] Das Konzept von Open Data ist nicht neu, jedoch ist der Begriff – anders als beispielsweise Open Access – bisher nicht allgemeingültig definiert worden. Argumente für Open Data[Bearbeiten] ICT Informatik Weiterbildung. EDUCA Pressemeldung Opensource: Klare Empfehlungen Pressemeldung inkl. Erläuterungen für Schulen... [439 KB] «Die Schweizerische Fachstelle für Informationstechnologien im Bildungswesen, educa.SFIB, kommt nach eingehender Prüfung zum Schluss, dass das neu ausgestaltete Microsoft School Agreement wegen seiner Verknüpfung mit dem Microsoft Live@edu Angebot für die Schulen gravierende Nachteile mit sich bringt.

Aus diesem Grund empfiehlt educa.SFIB allen Entscheidungstragenden in IT- und ICT-Fragen an Schulen, auf den Erwerb oder die Erneuerung von Lizenzen für Produkte von Microsoft im Rahmen eines School Agreements zu verzichten und schrittweise auf schlanke IT-Infrastrukturen und freie Software zu setzen. Dazu bauen educa.SFIB und educa.ch ein geeignetes Unterstützungsangebot auf.» Diese Pressemeldung lässt aufhorchen? -Wer hat was wirklich gesagt und gemeint? Openoffice und GIMP: auf Mac, Linux oder Win Uni ETH Fachhochschulen UNO erprobt!

Es geht auch auf Win im Parallelbetrieb! Open Innovation. Der Begriff Open Innovation bzw. offene Innovation bezeichnet die Öffnung des Innovationsprozesses von Organisationen und damit die aktive strategische Nutzung der Außenwelt zur Vergrößerung des Innovationspotenzials. Das Open-Innovation-Konzept beschreibt die zweckmäßige Nutzung von in das Unternehmen ein- und ausdringendem Wissen, unter Anwendung interner und externer Vermarktungswege, um Innovationen zu generieren.[1] Geschichte[Bearbeiten] Der Begriff "Open Innovation" stammt von Henry Chesbrough (Haas School of Business/University of California, Berkeley). Motivation[Bearbeiten] Gassmann und Enkel (2006) nennen den steigenden Wettbewerbsdruck durch die Globalisierung, kürzere Produktlebenszyklen und den damit höheren Innovationsdruck als maßgebliche treibende Faktoren für die Notwendigkeit, den Innovationsprozess zu optimieren und als Folge zu öffnen.

Kernprozesse[Bearbeiten] Open Innovation kann nach Gassmann und Enkel (2006) in drei Kernprozesse zerlegt werden: Ansätze[Bearbeiten] Memex. Der Memex (Memory Extender; dt. etwa: Gedächtnis-Erweiterer) ist ein als möglichst menschengerechtes, einfach bedienbares Wissensfindungs- und Verwertungssystem konzipierter Kompakt-Analog-Rechner, der 1945 von Vannevar Bush im Artikel As We May Think (Atlantic Monthly, Juli 1945, S. 101 ff.) fiktiv vorgestellt wurde. Das Prinzip lag auch der bereits 1931 in den USA patentierten Statistischen Maschine von Emanuel Goldberg zugrunde.[1] „Der menschliche Geist arbeitet […] mittels Assoziation.

Kaum hat er sich eine Information beschafft, greift er schon auf die nächste zu, die durch die Gedankenverknüpfung vorgeschlagen wird, entsprechend einem komplizierten Gewebe von Pfaden, das über die Hirnzellen verläuft. […] [Die Memex ist] ein Gerät, in dem ein Individuum alle seine Bücher, Aufzeichnungen und Kommunikation speichert und das mechanisiert ist, so dass es mit steigender Geschwindigkeit und Flexibilität zu Rate gezogen werden kann. Sie ist ein vergrößerter Anhang seines Gedächtnisses. Baum des Wissens. Der Baum des Wissens ist ein klassisches epistemologisches Ordnungssystem, das der botanischen Semantik entlehnt ist. Es geht zurück auf die platonische Dihairesis, auf der sowohl die aristotelischen Kategorien als auch die Isagoge des Porphyrios von Tyros basieren. Der Übersetzer und Kommentator Boëthius visualisierte das System im 6.

Jahrhundert erstmals als Baum,[1] und Petrus Hispanus führte es um 1240 unter dem Namen Porphyrianischer Baum (Arbor porphyriana) in die Wissenschaftsgeschichte ein.[2] Vergleichbare Strukturen liegen mehreren spätantiken und mittelalterlichen Enzyklopädien zugrunde, etwa Ramon Llulls Arbor scientiae (1295) oder dem Theatrum humanae vitae Theodor Zwingers, 1565. Die auch von Francis Bacon (1561–1626) aufgenommene Metapher wurde zuletzt von Diderot in der Encyclopédie genutzt, wobei sich Grenzen ihrer Nützlichkeit zeigten. Baum der Wissenschaft nannte Descartes das große Buch der Welt, die Gesamtheit des Wissens und der Wissenschaften.

[Bearbeiten] Hans M. Enzyklopädie. Datei:ENC SYSTEME FIGURE.jpeg – Wikipedia. Library classification. US-Studie informiert über staatliche Open Source Strategien auf der ganzen Welt | ifrOSS. Open Source.