Programm
Sessions
Beiträge Abstracts
| |
Abstracts zu den Beiträgen der ISKO-Tagung 1999
|
Name |
Beitrag |
Min |
Abstract |
Adresse |
e-mail |
1. |
Ahrweiler, Dr. Petra
|
Ein Integrationsansatz für heterogene
Wissenssysteme: Netwerksimulationen in der Wissenschafts- und Technikforschung |
45 |
Abstract:
Mit dem angekündigten Beitag wird ein Ansatz zur Integration von Wissenssystemen
vorgelegt. Im Rahmen dieses Integrationsansatzes können konzeptuelle Netzwerke mit Hilfe
zweier Mechanismen generiert werden. Der erste Mechanismus (starke Integration) erzeugt
ein selbstorganisierendes Netzwerk, in denen Wissenssysteme, die sich in Ergänzungs- oder
Differenzierungsverhältnissen zueinander befinden, als autonome Einheiten auf ihre
aktuelle Umwelt - bestehend aus einem selbstkonstituierten Gegenstandsbereich und der
Gesamtmenge aller beteiligten Wissenssysteme - reagieren. Bei Inkommensurabilität zweier
Wissenssysteme werden im Rahmen des zweiten Mechanismus (schwache Integration) Netzwerke
loser Kopplung gebildet, welche ein Switchen des Beobachters zwischen den verschiedenen
Interpretationsangeboten der inkompatiblen Wissenssysteme über Boundary-Elemente und
deren jeweils systemspezifische Verweisungsstrukturen ermöglichen. In der
Computersimulation dieser beiden Prozesse der Netzwerkformation testet das den
Integrationsansatz technisch umsetzende SiSiFOS-Programm Chancen und Grenzen von
konzeptuellen Kooperationsmöglichkeiten zwischen Wissenssystemen. Das entwickelte
Integrationsverfahren mit seinen Möglichkeiten zur Netzwerksimulation wird daraufhin auf
empirische Fragestellungen der Wissenschafts- und Technikforschung angewandt, und zwar auf
die Modellierung von anschlußproblematischer Kommunikation in sozialen Netzwerken
moderner Wissens- und Technologieproduktion. In sogenannten Innovationsnetzwerken werden
unter unterschiedlichen Weltsichten und Perspektiven der beteiligten Akteure Ziele und
Inhalte von Forschung ausgehandelt, wobei divergierende Interessen und Kompetenzen um
Deutungsprimate ringen. Im Rahmen der Analyse von Kontexten, in denen solche konzeptuellen
Kontroversen ausgehandelt werden, stehen abermals konzeptuelle Kombinationsmöglichkeiten
zur Diskussion: Akteure, Organisationen und Systeme werden zu medialen
Vermittlungsinstanzen von Wissenssystemen. Die diskursiven Aushandlungsprozesse zwischen
"Konzeptgebern" in der Wissens- und Technologieproduktion können als
Abstimmungsprobleme zwischen Wissenssystemen verstanden, im Rahmen des entwickelten
Integrationsansatzes beschrieben und mit den oben angedeuteten Techniken simuliert werden.
|
Institute for
Science and Technology Studies University of Bielefeld
BOX 10 01 31
33501 Bielefeld
Phone:
0049-521-106-4660 FAX: 0049-521-106-6033 |
petra.ahrweiler@post.uni-bielefeld.de
|
3. |
Asmus, Dr. Stefan |
Session mit Prof. Stephan: »Theorie Crossover« mittels adaptativem
Interface im WWW |
20 |
Abstract:
Basierend auf den von Peter Stephan beschriebenen theoretischen Annahmen präsentieren wir
ein Tool mit folgendem Leistungsspektrum:
1. Test und Validierung der von Peter Stephan dargestellten Hypothesen
2. Crossover von zwei Theorien a) Bazon Brocks »Nichtnormative Ästhetik« b) Niklas
Luhmanns »Theorie Sozialer Systeme«
3. Integration von Design und Technologie in einem adaptativen Interface Die Anwendung
besteht aus 170 Textknoten und Bildern, einer Visualisierung verbundener Begriffe,
Einbindung von Ton und einer Vielzahl von Interaktionselementen. Die Technik basiert auf
Standard-Softwareelementen und eigenständig entwickelten Algorithmen. Die Anwendung
läuft auf jeder Computerplattform im Internet. Nach einem Start auf einem beliebigen
Text-Bild-Knoten werden in animierter Form Titel gezeigt, die mehr oder weniger mit dem
anfänglichen Begriff zusammenhängen und ihre jeweilige Relevanz durch Farbe und
Entfernung anzeigen. Innerhalb der Textknoten verweisen Hyperlinks auf andere Textknoten
und Quellenmaterial. Durch die Integration einer Master-Datenbank werden Autoren in
Zukunft Beiträge liefern können. Dadurch wird das System komplexer, je öfter es benutzt
wird. |
Universität GHS
Wuppertal, Germany Fachbereich 5, Kommunikationsdesign Lehrstuhl für Ästhetik und
Kulturvermittlung
Ludwigstr. 49
42105 Wuppertal
+49-202-244-33-31
Fax: +49 202-244-33-33 |
asmus@matrixx.de |
3a |
Behnam,
Dipl. Kfm. Frank |
Netz-Radar: Strategische Früherkennung für
globale vernetzte Märkte |
30 |
Abstract: Das
Umfeld:
Das heute beobachtbare Internet-Engagement von Unternehmen entfaltet sich in einem
Spektrum von übereilter Multimedia-Präsenz und völliger Vernachlässigung der Chancen
durch den Electronic Commerce. Ausgewogenes und sich kontinuierlich entwickelndes
Engagement (von der Kommunikations- über die Service- bis hin zur Transaktionspräsenz)
sind selten zu finden.
Im Zusammenhang mit der auf globale Netze bezogenen Primär- und Sekundärmarktforschung
darf es vor diesem Hintergrund nicht nur um "Forschung mit Netzen", sondern es
muß vor allem auch um die "Forschung über Netzmärkte" gehen. Tatsächlich
mangelt es nämlich den Unternehmen nicht an der Fähigkeit, geeignete Internet-Präsenzen
zu entwickeln. Vielmehr fehlen die Sensoren, die Methoden und die Instrumente für eine
dem Charakter globaler Netzmärkte angepaßten Marktforschung, um der Dynamik und
Komplexität der neuen virtuellen Ära gerecht zu werden.
Der Ansatz:
Der "Netz-Radar" ist ein Ansatz, der den veränderten Anforderungen der
Marktforschung auf globalen Netzen und Netzmärkten Rechnung trägt, indem er
- kontinuierliche statt statische und punktuelle Marktforschung verfolgt
- in Unternehmen die Fähigkeit zur schnellen Reaktion auf Marktveränderungen schafft,
anstatt den Versuch zu unternehmen, die Zukunft vorauszusehen
- kurzfristige Planung unterstützt, ohne langfristige Planung zu konterkarrieren.
Die Ergebnisse:
Inhalte:
- Definition Kernkompetenzen: Die Definition der Kernkompetenzn ist für die Ausrichtung
und Kalibrierung des Netz-Radar unerläßlich und erfolgt zu Beginn der Radarzyklen oder
in einer vorgeschalteten internen Studie.
- Strategische Brennpunkte: Diese Brennpunkte, zu verstehen als zukünftige, potentielle
Geschäftsfelder, ergeben sich durch die Reflektierung der Kernkompetenzen vor dem
Hintergrund der für das jeweilige Unternehmen relevanten globalen Netzmärkte.
- Chancen & Risiken: Ausgehend von den strategischen Brennpunkten, welche die
inhaltliche Strukturierung des Untersuchungsrasters vorgeben, wird anhand der
unterstehenden Methoden, das Internet beziehungsweise die relevanten globalen Netze
hinsichtlich der Chancen und Risiken untersucht. Besonderes Augenmerk liegt dabei auf
technologischen Entwicklungen, die unmittelbare Auswirkungen auf Geschäftsfelder des
Unternehmens haben (Bsp.: Auswirkungen des OBI-Standard (Open Buying on the Internet) auf
business-to-business-Bestellsysteme)
Medien:
- WWW-basiertes Intranet: Der Netz-Radar ist eine anfaßbare Lösung auf WWW-Basis für
alle Mitarbeiter im Unternehmen. Die einfließenden Informationen stehen zur
Weiterverwendung zur Verfügung und entwickeln sich zu einem wachsenden Wissenspool.
Elementarer Bestandteil sind Kommunikationsmöglichkeiten per E-Mail und
Volltextrecherchen / Information Retrieval auf Basis einer relationalen Datenbank.
- Dynamische und kontinuierliche Marktforschung durch Einsatz intelligenter Agenten.
- Verbesserte Kommunikation / verbesserters Knowledge-Management durch Push-Channels im
Unternehmen.
- Weiterhin ermöglicht die Internet-Basierung des Netz-Radar die Einbeziehung von Kunden
sowohl als Informationsquelle als auch als Nutznießer der Outputs bspw. in Form
individualisierter elektronischer Newsletter, welche die Ergebnisse des Netz-Radar
reflektieren.
Die Methoden:
Dem Charakter eines an Marktpotentialen und Exploration orientierten Frühwarnsystems
entsprechend, besitzen die eingesetzten Werkzeuge primär qualitativen Charakter. Zum
Einsatz kommen - in Abhängigkeit von den Anforderungen des Unternehmens und des
relevanten Marktes - folgende Methoden und Maßnahmen:
- "Klassische" Sekundärforschung: Klassifizierung des Tätigkeitsfeldes und der
Kernkompetenzen des Unternehmens bezüglich der Netzaffinität
- Informationsbedarfsanalyse ((Kritische Erfolgsfaktorenmethode / Fragebogen- und
Interviewmethode / Konferenzmethode)
- Brainstorming-Techniken: Unternehmensinterne Auslotung der Entwicklungschancen für
Produkt-/Marktkombinationen.; "Übersetzung" der Kernkompetenzen auf Chancen und
Risiken der Netzmärkte.
- Net-Scanning und -Echoing: Kontinuierliche Beobachtung des Internet im Tagesgeschäft in
die für das Unternehmen relevanten Internet-Quellen und Identifizierung der relevanten
Technologien / Wettbewerbsaktionen / Marktveränderungen (Chancen & Risiken) vor dem
Hintergrund der identifizierten strategischen Brennpunkte (s.o.).
- Expertengespräche: Halbstandardisierte Expertengespräche mit ausgewählten Experten
(insbesondere enge Kooperation mit dem Sonderforschungsbereich der Universität Frankfurt
"Vernetzung als Wettbewerbsfaktor am Beispiel der region Rhein-Main".
- Kundenworkshops: Ergänzend zu den internen Brainstormings können je nach Kundenwunsch
auch Kundenworkshops (gilt primär für business-to-business) aufgesetzt werden. Diese
dienen zur Validierung der identifizierten strategischen Brennpunkte und liefern Ansätze
für konkrete Maßnahmen.
- Datenaufbereitung: Insbesondere hinsichtlich der executive reports (s.o.) erfolgt die
Interpretation, Verdichtung, Extrapolation und Katalyse der eingehenden Informationen, um
Vorschläge für konkrete Maßnahmen unterbreiten zu können.
Der Netz-Radar, verstanden als ein Komplex aus den oben geschilderten
organisatorischen, methodischen und technologischen Maßnahmen, ist ein flexibles
Frühwarnsystem, daß es den Unternehmen ermöglicht, die Komplexität im Electronic
Commerce durch Wissensbasierung und Flexibilität zu beherrschen.
(Mehr Informationen zum Netz-Radar unter http:\\www.bup.de) |
Dr. Böhmer,
Uhrig & Partner
Max Planck-Strasse 20
63303 DreieichFon / Fax +49-6103-5086-0 / -45 |
FBEHNAM@BUP.DE |
4. |
Bonitz, Dr. Manfred
/ Scharnhorst, Dr. Andrea |
Nationale Wissenschaftssysteme und der Matthäuseffekt für Länder |
|
Abstract:
Die Herausbildung nationaler Wissenschaftsstrukturen ist das Resultat eines historisch
langfristigen Prozesses, dazu gehört auch die disziplinäre Struktur, d.h. die
Intensität der Forschungstätigkeit in einem Land in bestimmten (naturwissenschaftlichen)
Gebieten. Es entsteht die Frage, ob und in welchem Masse diese Strukturen durch wachsende
internationale Verflechtung beeinflusst werden. Kommt es im Wechselspiel zwischen
Wettbewerb und Kooperation der verschiedenen Forschungsinstitutionen zu einer Annäherung
der nationalen Wissenschaftsstrukturen oder verschärfen sich bestehende Unterschiede? In
dem vorliegenden Papier wird dieser Frage anhand bibliometrischer Indikatoren zur
Forschungstätigkeit von Ländern und ihrer Wahrnehmung in der internationalen
Fachgemeinschaft nachgegangen. Nach einem spezifischen methodischen Ansatz werden Länder
als Punkte in einem (abstrakten) Forschungsraum anhand ihres Publikationsprofils
dargestellt. Strukturveränderungen lassen sich dann als Trajektorien in diesem Raum
abbilden. Die Länderpunkte sind nicht homogen im Raum verteilt, vielmehr führen
Strukturähnlichkeiten von Ländern zu einer spezifisch gegliederten Besetzungslandschaft.
Für den Zeitraum 1980-1994 wird der Frage nachgegangen, ob sich kohärente Bewegungen von
Ländern (i.S. von Strukturveränderungen in ähnliche Richtungen) finden lassen. In einem
zweiten Teil der Arbeit wird nach dem Zusammenhang von beobachtbaren strukturellen
Veränderungen nationaler Wissenschaftssysteme und dem Matthäuseffekt für Länder
gefragt. Dazu gehört auch die Frage, ob kohärentes Verhalten zu einem Gewinn an
Sichtbarkeit in der internationalen Fachgemeinschaft führt? |
Halbkreisstrasse 17
01187 Dresden
phone: ##49 351 4010760Wissenschaftszentrum Berlin
für Sozialforschung
Reichpietschufer 50
10785 Berlin |
bonitz@fz-rossendorf.de / as@medea.wz-berlin.de |
4b |
Budin, Univ.-Doz.
Mag. Dr. Gerhard |
Zum aktuellen Stand der
Wissen(schaft)stheorie |
|
Abstract:
In diesem Beitrag soll die Interaktion zwischen Theorien von Wissen und Theorien von
Wissenschaft beleuchtet werden. Während die Wissenschaftstheorie neben einer
Wissenstheorie auch viele andere Elemente enthält, geht es in einer Wissenstheorie nicht
nur um wissenschaftliches Wissen, sondern auch um andere Wissensarten. Beide
Theorienbereiche sind seit Jahren von philosophischen und erkenntnistheoretischen
Streitfragen geprägt. Zwischen Radikalem Konstruktivismus und Neo-Positivismus gibt es
eine Fülle von epistemologischen Positionen. Die Gemeinsamkeiten und Unterschiede im
Hinblick auf Theorien des wissenschaftlichen Wissens, der Entstehung, Veränderung,
Organisation, Repräsentation, kulturelle Diversität, Anwendung und Verarbeitung dieses
Wissens sollen analysiert werden. Elemente einer Wissenstheorie als wesentlicher
Bestandteil der Wissenschaftstheorie werden diskutiert. Schlussfolgerungen für die
aktuelle Diskussion der Informations- bzw. Wissensgesellschaft werden gezogen. |
Institut für
Wissenschaftstheorie und Wissenschaftsforschung
Universität Wien
1090 Wien, Sensengasse 8/10 Telefon: +43-1- 4277
47623 |
gerhard.budin@univie.ac.at |
4a |
Carranza, César |
Einsatz von Ontologien für
Informations-Mediatoren |
|
Abstract:
Aktuelle Szenarien der Informationssuche haben die methodische Beschränkung auf einzelne
Informationsquellen überwunden. Informationssuche ist inzwischen vielmehr geprägt von
einer Heterogenität von Datenbeständen und zugehörigen Retrievalfunktionalitäten. Um
diese Strukturen für die Benutzenden transparent zu halten, müssen
Informationsvermittler die Zuordnung von den Anfragen zu den für die Beantwortung am
besten geeigneten Systeme sowie die Rückgabe der Systemantworten an die Benutzenden
regeln.
Information Broker im klassischen Sinne beruhen auf einer Metadaten-Beschreibung der
verschiedenen Datenbestände und setzen die Anfragen in die jeweils unterliegende konkrete
Anfragesprache um, wobei die Möglichkeit einer parallelen Abarbeitung besteht.
Durch eine tiefer gehende Vernetzung der vorhandenen Informationsstrukuren mittels einer
Ontologie, die die Interdependenzen zwischen den Inhalten der einzelnen Datenbestände
erfasst und abbildet, besteht jedoch grundsätzlich die Möglichkeit zu komplexeren
Anfragen. An die Stelle eines Brokers tritt dabei ein Mediator, der auf der Basis dieser
Ontologie eine (sukzessive) Spezifikation der Anfrage unterstützt, die die begriffliche
Beschränkung auf das inhaltliche Angebot einer einzigen Datenbank aufhebt. Wir skizzieren
ein solches System als Erweiterung des Auskunftsdienstes LIS zur mathematischen Logik. |
Universität
Kaiserslautern
Fachbereich Informatik
Arbeitsgruppe Künstliche Intelligenz / Wissensbasierte Systeme
Postfach 3049
67653 KaiserslauternTel: (0631) 2053959 |
carranza@informatik.uni-kl.de |
5. |
Czap, Prof. Dr. Hans
|
Theoriebildung mit Hilfe künstlich neuronaler Netze vom Typ MLP |
|
Abstract:
Künstlich Neuronalen Netzen KNN werden zur Prognose bzw. Klassifikation von
Datensätzen verwendet, wobei die Interna, wie das Netz konditioniert wird, bzw. wie das
Netz lernt, losgelöst vom Anwendungskontext rein verfahrenstechnisch gesehen werden. Dies
und der Sachverhalt, daß die verwendete Modellierungsmetapher in Analogie zum
menschlichen Gehirn entstand, führen dazu, daß KNN teilweise mystische Eigenschaften
nachgesagt werden.
Der Beitrag konzentriert sich auf den Begriff Generalisierungsfähigkeit bzw. das
damit zusammenhängende Phänomen "Rule Extraction", wobei vor allem
nichtlineare Zusammenhänge thematisiert werden. Wie beim Lernen eines KNN gilt auch für
die Generalisierungsfähigkeit, daß sie vor allem verfahrenstechnisch charakterisiert
ist. Dadurch wird möglichen Ansätze einer inhaltlichen Diskussion die Basis entzogen.
Die Abbildungseigenschaften des Multi-Layer-Perzeptrons MLP werden im Beitrag detailliert
erläutert. Dies ermöglicht eine Interpretation des Phänomens Generalisierungsfähigkeit
und seine Rückführung auf Eigenschaften des Anwendungskontextes. Datenabhängigkeiten,
die aufgrund ihrer inhärenten Komplexität bislang nicht erklärlich sind, jedoch in
hinreichender Anzahl vorliegen, um ein MLP zu trainieren, erlauben eine explizite "Rule
Extraction", deren inhaltliche Begründung somit nachgereicht werden kann. |
BWL -
Wirtschaftsinformatik
Universität Trier
54286 TrierTel.:+49/651/201-2859 Uni
+49/651/201-2858 Sekr.
+49/651/9990113 priv. Fa:+49/651/201-3959 Uni +49/651/9990115 priv. |
CZ@wiinfo.Uni-Trier.de |
6. |
Dobratz, Susanne /
Schulz, Matthias |
Dissertationen in
SGML/XML - Erprobung
eines Publikationskonzeptes - (dargestellt am
Beispiel der digitalen Dissertationen an der Humboldt-Universität) |
|
Abstract:
Universitätsbibliotheken müssen sich in zunehmendem Maße der Aufgabe stellen,
elektronische Publikationen entgegenzunehmen, zu bearbeiten, zu archivieren und
verfügbar, d.h., recherchierbar zu machen. Dies führt, vor allem im Bereich der
Publikation von Dissertationen, zu sehr unterschiedlichen Ansätzen, um die teilweise oder
vollständige Automatisierung eines Geschäftsprozesses zu erreichen, in welchem die
Dokumente und ihre Bearbeitung nach festgelegten prozeduralen Regeln mit definierten
Daten-, Informations- und Kontrollflüssen funktionieren. Ein SGML/XML-basiertes
Publikationskonzept ermöglicht es, die Verfügbarkeit und Organisation wissenschaftlicher
Inhalte und deren Distribution durch gezieltes Informations- und Wissensmanagement in
einer anderen Qualität für die Zukunft zu sichern. Die Hauptargumente für die Nutzung
eines SGML-Workflows für elektronische Dokumente sind zum einen das der Archivierung und
zum anderen das, im Vergleich zur Nutzung anderer Konzepte, verbesserte Retrieval. Der
Bereich der Archivierung umfaßt dabei zwei unterschiedliche Aspekte:
1. die Frage nach dem Speichermedium und 2. die Frage nach dem Format der Daten (Text, Ton
, Bild, Video). Das Argument des verbesserten Retrievals und damit der zielgenaueren
Informationrecherchen wird durch die partielle Vereinheitlichung der Wissensstruktur am
Beispiel "Dissertation" gezeigt. Voraussetzung ist hier die Strukturierung des
Textes in semantische und semisemantische Einheiten. Im Vortrag soll eine kritische
Betrachtung des Konzeptes, auch unter Berücksichtigung der aktuellen Entwicklungen im
Bereich XML und Tools, anhand der innnerhalb von 2 Jahren erreichten Projektergebnisse
erfolgen und zur Diskussion gestellt werden. |
Computing Center
Humboldt-University of Berlin
Unter den Linden 6
10099 Berlin phone: (0)49+(0)30+2093-2475
fa: (0)49+(0)30+2093-2959 |
susanne.dobratz@rz.hu-berlin.de |
7. |
Endres-Niggemeyer,
Prof.Dr. phil. habil. Brigitte |
Eine Ontologie für die Knochenmarktransplantation |
|
Abstract:
Untersucht wird die Aufgabe, eine Ontologie für die
Knochenmarktransplantation zu entwickeln. Gebraucht wird die Ontologie für ein System,
das für Ärzte aus dem World Wide Web (WWW) kognitiv fundiert zusammenfaßt
(Endres-Niggemeyer 1998). Es soll den Zugriff auf WWW-Wissen so beschleunigen, daß
externes Wissen in Routinesituationen herangezogen werden kann. Traditionelles Information
Retrieval ist dazu zu zeitaufwendig. In meinem Beitrag diskutiere ich, wie die Ontologie
aussehen und entstehen soll.
Eine Ontologie unterscheidet sich von einem Thesaurus insbesondere dadurch, daß sie alle
Systemakteure, darunter auch maschinelle Agenten, mit Wissen bedient. Weil die Akteure
unterschiedliche Aufgaben haben und dementsprechend verschieden strukturiert sind, muß
die Repräsentation des Wissens adressaten- und aufgabenspezifisch sein. So braucht ein
Agent, der eine Information auf Relevanz untersucht, eine andere Darstellungsform als ein
Akteur, der ein Suchformular für eine Suchmaschine ausfüllt oder eine Benutzerin, die
die Definition eines Konzeptes wissen will. Insgesamt wird die Repräsentation sehr viel
stärker formalisiert, als es bei Thesauri und Klassifikationssystemen üblich ist. Die
Formalisierung orientiert sich an den Standards von Ontologiesystemen wie Ontolingua
(Farquhar et al. 1996) und Ontosaurus (Swartout et al. 1996, Knight und Luk 1994).
Gebraucht wird zum automatischen Zusammenfassen eine Domänenontologie (domain ontology),
die das Wissen des Fachgebietes zugänglich macht. Nicht nur der Formalisierungsgrad,
sondern auch die Wissensdichte geht weit über das hinaus, was ein Thesaurus wie MeSH
(Medical Subject Headings) anstrebt.
Die Knochenmarktransplantation ist ein kleines medizinisches Wissensgebiet, das sich
schnell weiterentwickelt. Die Ontologie muß deshalb von Anfang an modular gebaut werden,
damit man einzelne Teile leicht fortschreiben kann. Das Vorbild liefert Penman (Penman
Project 1989).
Noch weniger als in anderen Fachgebieten ist selbstverständlich, was in einer Ontologie
der Knochenmarktransplantation festzuhalten ist. Wo die methodische Literatur des Ontology
Engineering (Fernandez et al. 1997, Blazquez et al. 1998, Uschold und Gruninger 1996)
annimmt, daß jemand das vorhandene Wissen des Gebietes aufarbeitet und formal darstellt,
sollen darum die benötigten Wissenseinheiten in einem strukturierten empirischen
Verfahren ermittelt werden. Es orientiert sich an den Verfahren zur Entwicklung von
Thesauri und Klassifikationssystemen (Aitchison und Gilchrist 1997, Buchanan 1989), die
durch Methoden zur empirischen Modellbildung (Mayring 1990, Glaser und Strauss 1980)
ergänzt werden. Damit soll die Wissensakquisition nicht nur schneller gelingen. Vielmehr
ergibt sich auch die Chance, im Sinne eines benutzerzentrierten Designs die einzelnen
Module der Ontologie frühzeitig zu testen.
Die hochspezialisierte Ontologie der Knochenmarktransplantation soll an WordNet (Miller
1995) angebunden werden, damit das allgemeine begriffliche Wissen des Englischen
verfügbar ist. Den Zugang zu allgemeinem Wissen in der Medizin vermittelt eine Anbindung
an MeSH.Literatur
Aitchison, J.; Gilchrist, A. (1997): Thesaurus Construction and Use: A Practical Manual.
3rd edn. London: Aslib.
Blázquez, M.; Fernández, M.; García-Pinar, J.M.; Gómez-Pérez,
A. (1998): Building Ontologies at the Knowledge Level using the Ontology Design
Environment. KAW'98, Banff, Canada.
http://delicias.dia.fi.upm.es/miembros/ASUN/kaw98.ps.zip.
Buchanan, Brian (1989): Bibliothekarische Klassifikationstheorie. München: Saur.
Endres-Niggemeyer, B. (1998): Summarizing Information. Berlin: Springer.
Farquhar, A.; Fikes, R. ; Rice, J. (1996): The Ontolingua Server: A Tool for Collaborative
Ontology Construction. http://ksi.cpsc.ucalgary.ca/KAW/KAW96/farquhar/farquhar.html.
Fernández, M.; Goméz-Pérez, A.; Juristo, N. (1997): METHONTOLOGY:
From Ontological Art Towards Ontological Engineering. Workshop on Ontological Engineering.
AAAI 1997 Spring Symposium, Stanford, USA.
http://delicias.dia.fi.upm.es/miembros/ASUN/SSS97.ps.
Glaser, B.G.; Strauss, A.L. (1980): The Discovery of Grounded Theory: Strategies
for Qualitative Research. 11th edn. New York: Aldine Atherton.
Hovy, E. (1997): What would it Mean to Measure an Ontology? Internal Paper, ISI Marina del
Rey.
Knight, K.; Luk, S. (1994): Building a Large Knowledge Base for
Machine Translation. 773-778 in AAAI-94. 12th National Conference on Artificial Intelligence, Seattle, WA.
Lenat, D.B (1995): CYC: A Large-Scale Investment in Knowledge Infrastructure. Comm. ACM 38:11, 33-38.
Mayring, P. (1990): Einführung in die qualitative Sozialforschung. München:
Psychologie-Verlags-Union.
Miller, G. (1995): WordNet: A Lexical Database for English. Comm.
ACM 38:11,39-41.
Penman Project (1989): PENMAN Documentation: The Primer, the User Guide, the Reference
Manual and the Nigel Manual. Technical Report. ISI Marina del Rey CA.
Swartout, B.; Patil, R.; Knight , K.; Russ, T. (1996): Toward Distributed Use of
Large-Scale Ontologies.
http://ksi.cpsc.ucalgary.ca/KAW/KAW96/swartout/Banff_96_final_2.html.
Uschold, M. (1996): Converting an Informal Ontology into Ontolingua: Some Eperiences.
Univ. Edinburgh, Artificial Intelligence Application Institute (AIAI), AIAI-TR-192, März
1996. http://wwwis.cs.utwente.nl:8080/kbs/EcaiWorkshop/uschold-final-www.ps.
Uschold, M.; Gruninger, M. (1996): Ontologies: Principles, Methods and Applications.
Knowledge Engineering Review 11:2, 93-136.
Aitchison, J.; Gilchrist, A. (1997): Thesaurus Construction and Use: A Practical Manual.
3rd edn. London: Aslib.
Blázquez, M.; Fernández, M.; García-Pinar, J.M.; Gómez-Pérez,
A. (1998): Building Ontologies at the Knowledge Level using the Ontology Design
Environment. KAW'98, Banff, Canada.
http://delicias.dia.fi.upm.es/miembros/ASUN/kaw98.ps.zip.
Buchanan, Brian (1989): Bibliothekarische Klassifikationstheorie. München: Saur.
Endres-Niggemeyer, B. (1998): Summarizing Information. Berlin: Springer.
Farquhar, A.; Fikes, R. ; Rice, J. (1996): The Ontolingua Server: A Tool for Collaborative
Ontology Construction. http://ksi.cpsc.ucalgary.ca/KAW/KAW96/farquhar/farquhar.html.
Fernández, M.; Goméz-Pérez, A.; Juristo, N. (1997): METHONTOLOGY:
From Ontological Art Towards Ontological Engineering. Workshop on Ontological Engineering.
AAAI 1997 Spring Symposium, Stanford, USA.
http://delicias.dia.fi.upm.es/miembros/ASUN/SSS97.ps.
Glaser, B.G.; Strauss, A.L. (1980): The Discovery of Grounded Theory: Strategies
for Qualitative Research. 11th edn. New York: Aldine Atherton.
Hovy, E. (1997): What would it Mean to Measure an Ontology? Internal Paper, ISI Marina del
Rey.
Knight, K.; Luk, S. (1994): Building a Large Knowledge Base for
Machine Translation. 773-778 in AAAI-94. 12th National Conference on Artificial Intelligence, Seattle, WA.
Lenat, D.B (1995): CYC: A Large-Scale Investment in Knowledge Infrastructure. Comm. ACM 38:11, 33-38.
Mayring, P. (1990): Einführung in die qualitative Sozialforschung. München:
Psychologie-Verlags-Union.
Miller, G. (1995): WordNet: A Lexical Database for English. Comm.
ACM 38:11,39-41.
Penman Project (1989): PENMAN Documentation: The Primer, the User Guide, the Reference
Manual and the Nigel Manual. Technical Report. ISI Marina del Rey CA.
Swartout, B.; Patil, R.; Knight , K.; Russ, T. (1996): Toward Distributed Use of
Large-Scale Ontologies.
http://ksi.cpsc.ucalgary.ca/KAW/KAW96/swartout/Banff_96_final_2.html.
Uschold, M. (1996): Converting an Informal Ontology into Ontolingua: Some Eperiences.
Univ. Edinburgh, Artificial Intelligence Application Institute (AIAI), AIAI-TR-192, März
1996. http://wwwis.cs.utwente.nl:8080/kbs/EcaiWorkshop/uschold-final-www.ps.
Uschold, M.; Gruninger, M. (1996): Ontologies: Principles, Methods and Applications.
Knowledge Engineering Review 11:2, 93-136. |
FH Hannover
Fachbereich IK
Ricklinger Stadtweg 120
30459 Hannover Tel. +49 511 92 96 606
FAX +49 511 92 96 610 |
Brigitte.Endres-Niggemeyer@ik.fh-hannover.de |
7a |
Galinski, Christian
/ Budin, Univ.-Doz. Mag. Dr. Gerhard |
Querschnittsbegriffe beim
Enstehen neuer Fachgebiete |
45 |
Abstract:
Vorbemerkungen
Das Gebäude der Wissenschaften wird immer komplexer. Neue Fachgebiete
entstehen evolutionär, dh. nicht unbedingt einem logischen Plan
verpflichtet. Begriffe im Sinne der Terminologie waren schon immer
multifunktional: sie dienen mitnichten nur der Fachkommunikation, sondern
stellen in ihrer Systemhaftigkeit das Skelett (oder die geistige Infrastruktur) des
Fachwissens dar. Als sonche haben sie eine eminente Wissensordnungsfunktion. Über die
sprachlichen Repräsentationen, die Benennungen, wird vor allem in Texten/Dokumenten
niedergelegtes Wissen inhaltlich erschlossen. In Volltextsystemen kann man bis hin zur
entsprechenden Aussage im Text zugreifen. Es gibt aber einen fundamentalen Unterschied
zwischen der Terminologie und den Dokumentationssprachen ihre grundverschiedenen
Funktionen: hie Themensystem, da Begriffssystem.Wissensentstehung
Terminologie im Sinne der Begriffe und ihrer Begriffssysteme, dargestellt durch
wortsprachliche und nicht-wortsprachliche Repräsentationen, welche die Begriffsinhalte
und die Begriffsysteme aus inhärenten Gründen immer nur im besten Fall sehr unvollkommen
darstellen können, liefert die Bausteine für Aussagen, diese wiederum
konstituieren Theorien. Es gibt kein Fachwissen ohne Terminologie.
Zwischen Theorienbildung und dem Entstehen von Terminologie laufen iterative Prozesse ab.
Früher liefen diese Prozesse weitgehend innerhalb eines Fachgebietes ab, heute
durchlaufen sie häufig mehrere oft und zunehmend oft heterogene Fachgebiete
und wirken dann auf das Ursprungsfachgebiet (eigentlich die Ursprungstheorie) zurück.
Prinzipiell ist das Wissen auch beim inneren Wachstum grenzenlos. Nicht nur
daß praktisch alle Fachgebiete ständig expandieren, sie differenzieren auch nach innen
aus, bringen immer neue Teilfachgebiete hervor, die sich allmählich in eigenen
Disziplinen etablieren. Die Kombinationsmöglichkeiten von Teildisziplinen ist nicht nur
prinzipiell gegeben, sondern wird durch innere und äußere Expansion des Fachwissens
zunehmend ungebundener.
Zunehmend entstehen Fachgebiete aus einer praktischen Notwendigkeit heraus weniger
aus zwingenden Gründen logischer Kontemplation. Risikomanagement zB entstand
aus mehreren Notwendigkeiten: gesellschaftlichen (Sicherheit), wirtschaftlichen
(Kostenfaktor), politischen (internationale Handelspolitik) usw.
Terminologie
Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar.
Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche
Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art
der Kreativität der Wissensentstehung ist zwar unterschiedlich von Fach zu
Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander
und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander nur in sehr
unterschiedlichem Verhältnis.
Entsteht nun ein neues Thema aus einer praktischen Notwendigkeit heraus
diagonal durch und über mehrere Disziplinen hinweg, so findet dies im
Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in
Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit
von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel
heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder
weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen
wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft
vielleicht in der Regeln zeigt sich dann, daß eine theoretische und
methodische Untermauerung der neuen Anwendung erforderlich wird die
Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme die Schwierigkeiten beim
Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je
transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die
Fachleute selbst, das neu entstehende Fachgebiet als solches zu begreifen.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der
Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren
toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt,
verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das
hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung
lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung
sowie die Kosten für Transport und Versicherungen aller Art reduzieren und
kalkulierbarer machen.
Mittlerweile gibt es in vielen Firmen Risikomanager, deren Hauptaufgabe es
ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu
halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen
eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen
übernommen und mehr oder weniger umdefiniert teils durch Begriffserweiterung,
teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird
entwickelt so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische
Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische
Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das
nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird
beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist
leichter gesellschaftlich vermittelbar und praktisch umsetzbar.
|
INFOTERM
International Information Centre for Terminology
Simmeringer Hauptstraße 24
A-1110 Vienna - Austria
Tel: +43 1 74040 441
Fax: +43 1 74040 740 |
christian.galinski@teleweb.at |
8. |
Glauser, Prof. Dr.
Christoph |
"Tyson beisst
Holyfield und Minuten später wissen es alle". Informationsflussanalyse
von Teletexten |
|
Abstract:
Was haben Tod, Unfall, Paparazzi, Trauer und Elton John
gemeinsam ?
Alle diese Wörter wurden im Zusammenhang mit dem Tod von Prinzessin Diana zentral
aufgegriffen.
Im Zeitalter der "Informationsgesellschaft" ist eine Kontextanalyse, bei der die
in den verschiedenen Medien genannten Themen analysiert werden, von grossem Interesse. Nur
auf diesem Wege kann die Informationsflut besser unter Kontrolle gebracht und somit das
Hauptaugenmerk auf das Wesentliche gelegt werden.
Anhand einer computergestützten Inhaltsanalyse des Informationsflusses von drei
Teletext-Sendern wird aufgezeigt, dass die Entwicklung der elektronischen
Datenverarbeitung in grossen Schritten weitergekommen ist
Bei dieser Studie wurden während 104 Tagen (Zeitraum Juni-September 1997) rund 362000
Teletext-Seiten bestimmter Bereiche der Sender SF1, ARD/ZDF und 3SAT kontinuierlich
elektronisch erfasst, gespeichert und zeitgleich auswertetet.
Themenschwerpunkte sind Politik, Wirtschaft und Finanzen sowie Sport.
Anhand verschiedener Beispiele werden die markanten Differenzen zwischen den drei Sendern
in bezug auf Seitenbereiche, Themenbereiche, Sprachlichkeit und Inhalt besprochen.
Themen wie z.B. der Tod von Prinzessin Diana, die EU-Währungsunion, die
Nato-Ost-Erweiterung, der Versace-Mord, der Boxmatch zwischen Mike Tyson und Evander
Holyfield ("Ohrbiss") werden näher unter die Lupe genommen.
Anschliessend werden die Vorzüge der qualitativen und quantitativen computergestützten
Inhaltsanalyse erläutert. Diese wird durch die Datenerfassung und verarbeitung
mittels geeigneter Software ermöglicht. Die neue IT-Technologien haben auch vor der
wissenschaftlichen Inhaltsanalyse nicht halt gemacht. |
CEO Media Monitoring
Switzerland AG
Mülinenstrasse 3
CH-3006 Bern
Tel. ++41 (0)79 652 25 09
Fax: ++41 (0)31 356 44 04 |
glauser@mmsag.ch |
9. |
Goppold, Andreas |
Balanced
- (Phi-) Trees:
The Hierarchy and Histio-logy of Noo-logy |
|
Abstract:
With a little paraphrase borrowed from Kant, we can express a core tenet of
Knowledge-Organization thusly: Facts without interconnections are useless,
interconnections without facts are hocuspocus (hoc est corpus). While the theology
dominated scholastic intellectual pursuits of the olden times (ancilla theologieae) caused
problems of the latter kind, the copious "publish or perish" productivity of
millions of industrious scientific workers worldwide tends to produce a problem of the
former kind. Thus the necessity for a meta-science, which in earlier times had been
philosophy (meta-physics), arises, which we could call "Noo-logy". (Related to
Knowledge-Organization - how exactly, remains to be clarified. Also related to Kant's
"architectonics of pure reason"). Besides interconnection the other essential
ingredient of Noo-logy is Hierarchy and Categorization (Satija). In order to create a
consistent terminology (Peirce: ethics of t.), we will recur as much as possible to the
Greek terms: hiero-archae takes its roots in the highest (hieros) principles (archai) and
histo-logia is the systematics of interconnection (histo- : everything connected with
(inter-) weaving). Hierarchia and Histo-logia need to be balanced in a consistent manner,
and for this we make an allusion to the database engineering term (balanced B-tree). This
indicates also that time is the most essential (and most consistently forgotten) factor. A
fact not found in time (for a problem to be solved), might as well not exist in the
universe of knowledge. The letter F (Phi) abbreviates the combination of philo-sophia
(also noos, and nous), the sensory impressions: phainomenon, phos, phonae, and the
physei-logia for the Nature, which comprises both the living (phyein), and the material
(physics). Though the phainomenon, and its dominant elements phos, and phonae, we gain
knowledge (nous) of the world (physis). |
Postf. 2060
D-89010 UlmTel. ++49 +731 501-8757
Fa: +731 501-999 |
goppold@faw.uni-ulm.de |
10. |
Goppold, Andreas |
Hypertext as a practical method for
balancing the Hierarchy and Histio-logy of Knowledge |
|
Abstract:
We take our theoretical concepts from the companion paper: "Balanced F -Trees".
The practical requirements for Knowledge-Organization (KO) can be served by the available
technology of hypertext. If implemented correctly, hypertext allows us to optimally
balance the complementary principles of hierarchy and histo-logy (only remotely related to
the medical term) for KO. The presently available implementations like HTML (-editors /
browsers) still fall a little short of the requirements for professional KO applications
which is due to the heavy commercial drive behind the industry, that is obviously more
bent on serving naive customers aimlessly browsing through commercial offerings and
inducing them to buy things. KO necessitates a kind of hypertext-navigation that surely
was not on the mind of the inventors of the misnamed product of the company Netscape. The
paper will specifiy some of the requirements for efficient hypertext-navigation and will
give some implementation examples. Time is the most essential (and most consistently
forgotten) factor of hypertext-navigation. The currently popular WIMP (Windows, Icon,
Mouse, Pointing) interfaces are aimed at the naive user / browser customer base who are
induced to buy a new computer with every new release of Windows-XYZ, because on the old
machine, it runs so slowly that the system seems to have stalled. Since KO department
budgets are often not as richly fund-endowed as glitzy KI research laboratories, a
solution that runs well on 386 machines, is advantageous. Professional
hypertext-navigation means that an entirely different user interface model needs to be
constructed for the non-browsing, high-power, expert knowledge workers, whose most
precious resource is their lifetime. |
Postf. 2060,
D-89010 Ulm, GermanyTel. ++49 +731 501-8757
Fa: +731 501-999 |
goppold@faw.uni-ulm.de |
11. |
Groessler, Andreas /
Reuther, Andreas |
Notwendigkeit einer gemeinsamen
Wissensbasis: eine Fallstudie mit Hilfe von System-Archetypen |
30 |
Abstract:
Mit der Zunahme der Komplexität des unternehmerischen Umfelds und der internen Strukturen
von Unternehmen wächst die Bedeutung, die die betriebswirtschaftliche Forschung und die
unternehmerische Praxis den Themen "Wissensorganisation" und
"Organisationales Lernen" beimessen. Vor diesem Hintergrund scheint es
angebracht, Möglichkeiten zur Unterstützung Organisationalen Lernens für die
Unternehmensführung zu untersuchen und darzustellen. Im Rahmen des vorliegenden Artikels
sollen daher die Ergebnisse einer Untersuchung vorgestellt werden, welche die Autoren in
der Kundendienstabteilung eines Software-Konzerns durchgeführt haben. Den theoretischen
Rahmen bildet dabei die Arbeit Hubers, der "Knowledge Aquisition",
"Information Distribution", "Information Interpretation" und
"Organizational Memory" als die vier konstituierenden Elemente Organisationalen
Lernens beschreibt. Das Konstrukt einer organisatorischen Wissensbasis
("Organizational Memory") erscheint dabei von besonderer Bedeutung, denn um die
Ergebnisse individueller Lernprozesse der gesamten Organisation zugänglich zu machen und
damit eine Organisation das in ihr vorhandene Wissen nicht permanent neu erlernen muß,
bedarf es einer Struktur, die dieses Wissen konserviert und den Individuen zur Verfügung
stellt. Walsh und Ungson beschreiben in ihrem Modell der "Storage Bins" den
Aufbaus eines Organisationalen Gedächtnisses im Detail und identifizieren sechs
Komponenten eines "Organizational Memory". Diese Komponenten manifestieren sich
unter anderem in den Konstrukten "Individuen", "Unternehmenskultur"
und "Strukturen". Dabei stellen insbesondere die "Individuen", also
die Mitarbeiter eines Unternehmens, einen bedeutsamen Faktor hinsichtlich der Etablierung
eines Organisationalen Gedächtnisses dar. Einerseits sind sie durch ihr (Fach-) Wissen
und die von ihnen verinnerlichten Werte ein Teil der organisatorischen Wissensbasis,
andererseits extrahieren sie aber auch Information aus dieser Wissensbasis und treffen auf
dieser Grundlage wiederum Entscheidungen. Der Kundendienst des in der Untersuchung
betrachteten Unternehmens unterstützt die Kunden beim Betrieb und der Wartung der
eingesetzten Software und läßt sich durch einen mehrstufigen Filterprozeß beschreiben.
Außerdem ist der Kundendienst nach der Prämisse einer
"Rund-um-die-Uhr"-Erreichbarkeit strukturiert, indem jeweils aktuelle Probleme
mit den Zeitzonen an nachgelagerte Supportstufen weitergegeben werden. Kontinuierliches
Lernen und die Weitergabe individuellen Wissens müssen daher als natürlicher Bestandteil
der alltäglichen Aufgabenerfüllung integriert werden. Da Tätigkeiten, die langfristige
Lernprozesse fördern, kurzfristig meist zusätzliche Belastungen und Opportunitätskosten
hervorrufen, muß der langfristige Aspekt einer gemeinsamen Wissensbasis transparent
gemacht und honoriert werden. Damit einher geht die Forderung nach der Vorgabe klarer
Ziele und Messung der Ergebnisse individuellen und kollektiven Lernens. Anhand dreier
sogenannter System-Archetypen von Senge wurden komplexe Problemstellungen durch den
Einsatz von Feedback-Loops und graphischer Modelle visualisiert. Insbesondere die
explizite Berücksichtigung der Zeit durch die Analyse kurz-, mittel- und langfristiger
Konsequenzen unternehmerischer Handlungen kann dabei die Grundlage von Maßnahmen zur
Lösung von Problemen bilden. Den beteiligen Mitarbeitern und Führungskräften wurde die
Möglichkeit gegeben, ihre unterschiedlichen mentalen Modelle und Kausalannahmen explizit
zu machen. Die vorgestellten System-Archetypen unterstützten diesen Prozeß und
verdeutlichten die Auswirkungen der verschiedenen Lösungsansätze auf die verschieden
Aggregationsebenen des Unternehmens. |
Industrieseminar
Mannheim University
68131 Mannheim Tel.: +49 (0)621 2923140
Fax: +49 (0)621 2925259
Andreas REUTHER
Birkenweg 2
68535 Neckarhausen
privat: 06203/12706
dienst.: 06227/46062 |
agroe@is.bwl.uni-mannheim.de Andreas.Reuther@sap-ag.de |
11a |
Habel, Prof. Dr.
Christopher |
Plenarvortrag:
Kognitive Ontologie räumlicher Konzepte |
90 |
Abstract:
1. Konzepte, die kognitiven Entitäten, die unser, menschliches Wissen über Kategorien
und Instanzen von Kategorien darstellen, sind - aus Sicht der Kognitionswissenschaft - die
Bausteine unseres Denkens und stellen somit zentral für alle Disziplinen, die sich mit
dem menschlichen Denken und menschlicher Informationswissenschaft befassen.
Die Bausteine des Denkens beziehen sich nicht nur auf Kategorien physikalischer Objekte,
sondern auch auf andere ontologische Typen, wie Eigenschaften von und Relationen zwischen
physikalischen Objekten, auf Systeme abstakter Entitäten, sowie auf Raum und Zeit.2. Im Zentrum des Vortrags steht die Domäne räumlicher
Entitäten. Am Beispiel dieser für die menschliche Kognition fundamentalen Domäne sollen
generelle Fragestellungen einer Kognitiven Ontologie als Grundlage von Konzeptsystemen
diskutiert werden. Dies betrifft einerseits methodische Perspektiven (A), und andererseits
die Verwendung von Basisinventaren räumlicher Begriffe in Systemen der
Wissensrepräsentation (B):
A. Da konzeptuelle Relationen über inferentielle Beziehungen
darstellbar sind, können konzeptuelle Systeme als Wissenssysteme aufgefasst werden, in
denen Bedeutungsrelationen zwischen den Konzepten durch inferentielle Beziehungen
realisiert werden. Derartige Systeme von Konzepten und konzeptuellen Beziehungen sind als
axiomatische Systeme auffassbar. Axiomatische Charakterisierungen stellen dann die
Möglichkeit bereit, Konzeptsysteme in einer systematischen Weise zu untersuchen. Dies
betrifft u.a. die folgenden Aspekte:
- Die Annahme von atomaren Konzepten (in einem formalen Sinne) auf
deren Grundlage weitere, komplexere Konzepte definierbar sind, korrespondiert zur
kognitionspsychologischen Idee von basalen Konzepten, die die Grundbausteine für komplexe
Konzeptualisierungen bilden.
- Das Bedeutungspotential eine Konzeptsystems ist über die aus einem
axiomatischen System ableitbaren Sätze charakterisierbar. Auf dieser Grundlage können
alternative Möglichkeiten, Systeme konzeptueller Beziehung zu realisieren, durch
unterschiedliche axiomatische Charakterisierungen beschrieben und in ihren Zusammenhängen
untersucht werden.
(B) Forschungen zu Konzeptsystemen sind jedoch auch für die
Künstliche Intelligenz, insbesondere den Bereich der Wissensrepräsentation, grundlegend.
Zum einen benötigen wissensbasierte Systeme entsprechende Wissensstrukturen, um
erfolgreich Probleme lösen zu können, zum anderen hängt der erfolgreiche Einsatz von
wissensbasierten Systemen, und dies betrifft insbesondere auch ihre Akzeptanz, davon ab,
inwieweit es gelingt, die Konzeptsysteme der Benutzer und die im System realisierten
zueinander kompatibel zu machen. |
Arbeitsbereich WSV
Fachbereich Informatik
Universität Hamburg
Vogt-Kölln-Straße 30
22527 HamburgTel: +49-
(0)40/428 83-2417
+49- (0)40/42883-2416(Sek.)
Fax: +49- (0)40/428 83-2385 |
habel@informatik.uni-hamburg.de |
11b |
Heimhold, Annegret |
Kulturen in räumlicher und
zeitlicher Sichtweise (mit Führung) Vortragsort:
Museum für Völkerkunde
Rothenbaumchaussee 64 20148 Hamburg |
|
|
Museum für
Völkerkunde
Bibliothek
Rothenbaumchaussee 64 20148 Hamburg040/428 48-2691 |
|
12. |
Hellweg, Heiko |
Der GESIS
Socio-Guide: Ein kooperatives Link-Verwaltungssystem |
|
Abstract:
The aim of the Socio-Guide project is the creation of a database based web environment
that provides visitors with searchable as well as browsable access to WWW resources,
relevant for social science research and that allows for distributed management,
maintenance and development of the data, providing simple workflow and communication
facilities for the maintainers, all within a simple web based interface. |
IZ
Sozialwissenschaften
Lennestr. 30
53113 Bonn |
hh@bonn.iz-soz.de |
12a |
Jaenecke, Dr. Peter |
Ist Wissen ein definierbarer Begriff? |
|
Abstract:
Wissen ist gegenwärtig ein häufig und in
vielen Bedeutungsvarianten gebrauchter Begriff. Aber auf die Frage: Was ist
eigentlich Wissen? scheint es bislang noch keine befriedigende Antwort zu geben. Es
ist daher wiederholt der Ruf nach einer wissenschaftlich verwertbaren, allgemein
anerkannten Definition laut geworden. Dabei geht man stillschweigend von der Vermutung
aus, es gäbe solch eine Definition. Gestützt wird diese Vermutung durch die
unbestreitbare Tatsache, daß man mit dem Wort Wissen, trotz seiner
schillernden Bedeutung, sinnvoll erscheinende Sätze bilden kann. Doch der Begriff
Bewegung kommt ebenfalls in sinnvollen Sätzen vor; er bezieht sich sogar auf
einen gut verstandenen physikalischen Sachverhalt, aber dennoch gibt es von ihm keine
wissenschaftlich anspruchsvolle Definition.
Es wird zuerst erläutert, wie man in der Physik mit diesem scheinbaren Widerspruch
umgeht. Dabei stellt sich heraus, daß die Bewegungsphänomene durch eine Reihe von
wohldefinierten Einzelbegriffen erfaßt werden, die sich auf bestimmte Einzelaspekte
beziehen. Bewegung als globaler physikalischer Begriff erweist sich als
überflüssig: er ist entweder nicht sinnvoll definierbar oder geht in anderen Begriffen
auf. Mit dem Wissensbegriff, so die zunächst wenig ermutigende These, verhält es sich
ganz ähnlich.
Doch wenn sie zutrifft, dann sollte sich auch Wissen in ähnlicher
Weise klären lassen wie Bewegung. Wie solch eine Klärung aussehen kann, wird
durch eine analoge Gegenüberstellung der Begriffsstrukturen von Bewegung und
Wissen veranschaulicht. Sie offenbart Lücken in der Begriffsstruktur von
Wissen und zeigt damit an, was noch ergänzt werden muß; sie bietet aber auch
die Möglichkeit, schon bekannte Vorstellungen über das Wissen besser einzuordnen. Diese
Vorgehensweise scheint erfolgversprechend zu sein; die Suche nach einer allgemeinen
Wissensdefinition dagegen muß wohl als prinzipiell unlösbar aufgegeben werden. |
An der Mauer 32
75334 StraubenhardtTel.: 07082-92261
Fax: 07082-50333 |
pjaenecke@gmx.de |
12b |
Klein, Dr. Harald |
Inhaltsanalyse von Informationen aus dem WWW |
|
Abstract:
Mit der weiten Verbreitung des Internets eröffnen sich für die
verschiedensten wissenschaftlichen Disziplinen neue Möglichkeiten. Als neues Medium
vereint das Internet die meisten bisherigen Medien wie Buch, Rundfunk und Film. Durch
direkte Verknüpfungsmöglichkeiten ist die Struktur auch nicht mehr linear, und es ist
interaktiv. Diese Eigenschaften machen es für jeden Wissenschaftler attraktiv, das
Angebot zu nutzen. Sozialwissenschaftler können Medieninhalte analysieren, Bibliothekare
Bücher und Aufsätze, Literaturwissenschaftler Romane, Lyrik und Poesie, denn alles steht
irgendwo im Internet. Ein weiterer Vorteil liegt in der Maschinenlesbarkeit der Daten, die
Zugangsprobleme gegenüber herkömmlichen Medien minimiert. Weiterhin entstehen im
Internet neue Informationsangebote, die die verschiedenen Wissenschaftsdisziplinen zur
einer Analyse herausfordern. Eine standardisierte Methodik zur Analyse von
Internetinhalten existiert noch nicht, da grundlegende Probleme einer Klärung bedürfen,
sowohl in technischer als auch in inhaltlicher Hinsicht. Die Entwicklung von Methoden
erfordert die Definition des Erkenntnisinteresses. |
Social
Science Consulting
Brückengasse 12
07407 Rudolstadt
Tel./Fax: 03672 488494/5 |
intext@gmx.de |
13. |
Krysmanski, Prof.
Dr. Hans Jürgen / Teubener, Katy / Zurawski, Nils |
Wissenschaftsvernetzung, Internet und
Interface-Design für die Massenmedien |
|
Abstract:
Mit dem Anwachsen des Internet werden auch das dort vorhandene Wissen bzw.
die Wissensbestände immer unübersichtlicher und unauffindbarer. Die viel zitierte
Informationsflut verhindert den Zugang zu Wissen allein durch den Mangel an Organisation
und Vernetzung des vorhandenen Informationen.
Hinzukommt, daß zwar viele Wissenschaften auf dem Internet präsent sind so
haben sehr viele Einrichtungen Hompages und Web-Seiten aber diese
selten in einem gemeinsamen Kontext stehen, von disziplinübergreifenden Vernetzungen ganz
zu schweigen. Wissenschaft auf dem Internet wird so schlecht verkauft, und
kann sich außer in einem kleinen Kreis von Eingeweihten einer breiteren Gruppe von
Interessierten nicht vermitteln. Die Wissenschaftler untereinander jedoch agieren bereits
mit den Mitteln des Internet, schaffen aber selten eine Transferleistung, die ihr Wissen
über den engen Zirkel hinaus bekannt machen würde.
Die Zunahme von Wissenschaftssendungen im Fernsehen deutet jedoch darauf hin, daß
es diese breite Masse gibt, die sich für wissenschaftliche Themen interessiert.
Diesen Sendungen setzen Wissen in einen Kontext, behalten dabei aber die alten
Schemata des Filterns und Zensierens bei, wenn sie Wissenschaftsgeschichten
erzählen. Eine Verbindung zum Internet, mit seinem frei verfügbaren Wissen
und seiner offenen Struktur wird dabei nur selten gesucht. So gibt es zu allen Sendungen
Internetseiten, die selten mehr sind, als die bloße Wiedergabe von Information über die
Sendung oder den bereits gezeigten Inhalten.
Erzählweisen, wie sie durch das Internet möglich werden, z. B.
Hypertextstrukturen, neue Kontexte, demokratische Zugänge zu Wissen und Informationen,
werden nicht genutzt bzw. nicht umgesetzt. Das Fernsehen bleibt dem
broadcasting-Paradigma (one-to-many, ohne Rückkopplungseffekte, außer der
Quote) treu.
Mit dem zunehmenden Zusammengehen der beiden Medien (TV und Internet) ist es an der
Zeit sich über neue Formen der Darstellung und Verbreitung von Wissenschaft, wie sie
heute bereits praktiziert wird, zu machen. Das heißt, die Strukturen des Internets und
das darauf gesammelte Wissen muß massenmedial aufbereitet werden, um einerseits neue
Geschichten zu erzählen, die den bisher herrschenden Ideologien und Paradigma von
Wissenschaftsvermittlung entgegenlaufen und um andererseits Wissenschaft und Forschung zu
demokratisieren.
Das von der EU geförderten European Popular Science Information Project
widmete sich in seiner Arbeit und Zielsetzung diesem Problem und entwickelte in einem
Zeitraum von etwas über zwei Jahren eine Reihe von Werkzeugen und Strategien, mit denen
vorhandenes Wissen auf dem Internet kontextualisiert und vernetzt wurde, um so z. B. von
Journalisten für ihre Arbeit genutzt werden zu können.
Diese als scientific storyboarding bezeichnete Technik ermöglichte es
Inhalte des Internets zu bestimmten Themen zu sammeln, ordnen und so einen Kontext zu
stellen sowie darüber eine Geschichte zu erzählen. Die Storyboards waren
Arbeitsplattformen über die sich das Projekt mit den Journalisten über Themen und
Themenschwerpunkte verständigte, und so diese in der Interaktion ständig erweiterte bzw.
verdichtete.
Weiterhin konzentrierte sich die Arbeit auf die Entwicklung von Wissenschafts-Interfaces,
mit denen im Fernsehen die Struktur des Internets wiedergegeben werden konnte, um die
starre Darstellung in diesem Medium aufzulockern und das Erzählen von Wissenschaft als
solches zu erleichtern bzw. zu erneuern.. Die Interfaces waren die aus der Logik
der Storyboards folgende Darstellung und Verarbeitung von Informationen des Netzes, um
eine breitere Bevölkerungsschicht zu erreichen, nämlich über das Fernsehen. Es fand
hier sozusagen ein Broadcasting the Web statt.
Mit der zunehmenden Konvergenz von Fernsehen und dem Internet, nicht zuletzt
ermöglicht durch preiswerte Hochgeschwindigkeitsanbindungen wie ADSL (asymmetric digital
subscriber line ) u. a. wird sich die Darstellung von Internet im Fernsehen hinzu einer
Verbreitung des Fernsehen im Internet bzw. dem WWW vollziehen (Stichwort Web-TV). Die
notwendige Strategie muß daher jetzt das Webbing the Broadcast sein, das
Vernetzen der verschiedenen Geschichten, wie sie von den Produzenten und Journalisten
erzählt werden. Der Schlüssel zur Vermittlung von Wissenschaft im Spannungsfeld von
Internet UND TV wird das jeweilige Interface, also die Schnittstelle zwischen
Wissenschaft, Medium und Benutzer (nicht nur Konsument) sein. Es ist daher angebracht von
einer Notwendigkeit eines wissenschaftlichen Interface-Designs zu sprechen, eine Idee,
welche im EPS-Projekt - mit ersten Ergebnissen - angegangen wurde. |
Westfälische
Wilhelms-Universität Münster
Institut für Soziologie
- EPS-Project
Scharnhorststr. 121
48151 MünsterTel. (0251) 83-2 31 90
oder (0251) 83-24835
Fax (0251) 83-2 31 93 |
teubene@uni-muenster.de zurawsk@uni-muenster.de |
14. |
Lederbogen,
Dipl.-Journ. Utz / Trebbe, Dr. Joachim |
Wissenschaft im Netz. Die Nutzung des
Internets als Quelle für Wissenschaftsinformationen.
Ergebnisse einer Online-Befragung |
|
Abstract:
Vorbemerkung: Die interaktiven Medien und insbesondere das Internet stellen Wissenschaft
und Forschung vor neue Herausforderungen. Der virtuelle Raum der Online-Kommunikation
bildet eine gänzlich neue Öffentlichkeit, einen weltumspannenden Kommunikationsraum mit
eigenen Strukturen, Themen, Kommunikationsabläufen und Aufmerksamkeiten.
Wie sind die deutschen Universitäten und Forschungseinrichtungen auf diese
Herausforderungen vorbereitet? Welche Chancen bieten ihnen die multimedialen
Kommunikationsformen auch angesichts eines immer härteren Wettbewerbs und der Forderung,
nicht nur ihre Leistungsfähigkeit zu erhöhen sondern diese auch nach außen zu
kommunizieren? Welche PR-Strategien entwickeln sie und in wieweit entspricht das
Online-Angebot den Ansprüchen der Zielgruppen? Ziel des zur Zeit an der Freien
Universität Berlin laufenden Forschungsprojektes ist es, auf der Basis empirischer
Kenntnisse praxisrelevante Konzepte für die Wissenschaftskommunikation in und mit offenen
Datennetzen zu erarbeiten. Es handelt sich hier um einen exklusiven Themenvorschlag für
die ISKO-Tagung in Hamburg und um bislang unveröffentlichtes Datenmaterial.
Untersuchungsdesign: Aus eigener Erfahrung wissen wir, daß die praktische Umsetzung von
interaktiven Informationsangeboten im akademischen Sektor bis heute eher vom Engagement
und den Fähigkeiten der - in der Regel auf ganz anderen Gebieten tätigen -
Wissenschaftler abhängt und nicht zum Standardrepertoire der für Öffentlichkeitsarbeit
und Wissenstransfer zuständigen Stellen gehört. Dies hat zur Folge, das zum Teil recht
unterschiedliche Auffassungen darüber existieren, was wissenschaftliche Online-Angebote
leisten und enthalten sollen. Die Studie, die in Form eines dreisemestrigen
Forschungsprojektes am Institut für Publizistik- und Kommunikationswissenschaft der
Freien Universität Berlin durchgeführt wird, soll insbesondere den massenmedialen Aspekt
der wissenschaftlichen Online-Kommunikation näher beleuchten und in diesem Kontext die
drei wesentlichen Perspektiven für die Evaluation wissenschaftlicher Angebote im World
Wide Web integrieren: (1) Die Anbieter: Welchen Zweck verfolgen sie mit ihrer
Online-Präsenz, welche Zielgruppen wollen sie erreichen und in welcher Art und Weise ist
die praktische Umsetzung des Internet-Angebots in die institutionelle Organisation
eingebunden? (2) Die Inhalte: Welche Inhalte werden angeboten und in welcher Art und Weise
ist das Angebot strukturiert und formatiert? (3) Die Nutzer: Wer nutzt die Inhalte
wissenschaftlicher Einrichtungen, welche Inhalte werden stärker, welche weniger stark
nachgefragt und wie sieht die Suchstrategie der 'Online-User' zu diesem Themenkomplex im
World Wide Web aus? Aus kommunikationswissenschaftlicher Perspektive kann man das World
Wide Web als rezipientenorientiertes Medium bezeichnen. Inhalte werden nicht - wie in den
herkömmlichen Massenmedien - gesendet, sondern zum Abruf bereitgestellt. Gerade deshalb
ist die Verbindung der Anbieter- und der Nutzerperspektive von entscheidender Bedeutung.
Dieser Ansatz geht über den reinen 'Verkauf' von Wissenschaft hinaus. Im Kern der
Fragestellung steht hier nicht nur die Selbstdarstellung wissenschaftlicher Institutionen,
sondern die Vermittlung wissenschaftlicher Inhalte im World Wide Web und hier insbesondere
die Frage, ob die Anbieter wissenschaftlicher Informationen genau das in Form und Inhalt
anbieten, was von den Nutzern gesucht und erwartet wird. Auf diesen Erkenntnissen und
Interpretationen aufbauend sollen schließlich Empfehlungen für die
Öffentlichkeitsarbeit der Hochschulen und Forschungsinstitutionen abgeleitet werden.
Diese werden sich nicht nur auf gestalterische Aspekte und organisatorische
Voraussetzungen beschränken, sondern sich auch die Anwendungsmöglichkeiten und
Perspektiven dieser Technologie aufzeigen. |
Freie Universitaet
Berlin Arbeitsbereich Wissenschaftsjournalismus Malteserstr. 74-100 D-12249 Berlin Tel. +49 30 7792-895
Fax. +49 30 7762-149 |
utzleder@zedat.fu-berlin.de |
15. |
Lehner, Dr.
Christoph |
Eine holistische Theorie für die Informationswissenschaften |
|
Abstract:
Der Beitrag geht von der These aus, daß den
Informationswissenschaften bislang eine unifizierende Theorie fehlt (vgl. z.B. Henrichs
(1997), Coy et al. (1992)). Im Beitrag soll auf der Grundlage der Semiotik in
Anlehnung an die Ideen von Thure von Uexküll ("Biosemiotik" als unifizierende
Theorie für die Medizin, vgl. Uexküll (1994)) unter Bezugnahme auf neuere
Arbeiten von Flückiger (1995) und Losee (1997) bzw. Losee (in press) ein Vorschlag für
einen ergänzende (Teil-)Theorie eines disziplinunabhängigen Informationsbegriffs gemacht
werden. Der Beitrag nimmt auch Bezug auf eine laufende Diskussion zum Wissensbegriff der
Internet-Mailingliste wiss-org@bonn.iz-soz.de Selbstverständlich steht der Begriff der
"Information" in theoretischer Hinsicht in enger Beziehung zum Begriff des
"Wissens".
In der Vergangenheit war eine Tendenz zu einer pluralistischen Grundhaltung
gegenüber dem Informationsbegriff zu beobachten (vgl. Maier/F. Lehner (1994)). Soll die
Informationswissenschaft allerdings nicht nur ein lockerer Verbund von
Einzelwissenschaften bleiben, ist ein Informationsbegriff, der die vorgeblichen
Inkommensurabilitäten ausgleicht, unerlässlich. Ist man von der grundsätzlichen
Korrektheit von Quines Holismusthese (vgl. z.B. Stegmüller (1979)) und von der These von
der methodischen Einheit (Jaenecke (1998)) überzeugt, bestätigen sich das intensive
Geflecht und die Interdependenz der Wissenschaften aus der Sicht der
Informationswissenschaft nachdrücklich.
Historisch gesehen stellt die InformatioAber auch kognitive Psychologie, Linguistik
tions- und Datenverarbeitende Disziplin. tn, Communication and Library Science.
(innswissenschaft ein Konglomerat von Einzelwissenschaften dar. Der Primat liegt auf einer
stark anwendungsbezogenen Vorgehensweise. Die technischen Grundlagen werden von der
Informatik als informations- und datenverarbeitende Disziplin bereitgestellt. Aber auch
kognitive Psychologie, Linguistik, Rechts-, Wirtschafts- und Bibliothekswissenschaften
spielen unter vielen anderen Disziplinen eine konstituierende Rolle. Dies hat zu einer
Vielzahl sogen. "Bindestrich-Informatiken" (Steinmüller 1993)) geführt. Vor
dem Problem der Einbeziehung vieler Einzelwissenschaften steht auch die "Angewandte
Informationswissenschaft" in Hildesheim, die die Anwendung von
Informationstechnologie vorangig unter den Bedingungen der Mehrsprachigkeit und unter
Berücksichtigung multikultureller Phänomene zu behandeln versucht (Lehner (1996)). Die
Aspekte der Mehrsprachigkeit und Multikulturalität stellen den Bezug zum Tagungsthema
"Globalisierung" her.
Coy , Wolfgang et al. (Hrsg.) (1992): Sichtweisen der
Informatik . Braunschweig [u.a.] : Vieweg
Flückiger, Daniel Federico (1995): Beiträge zur Entwicklung eines vereinheitlichten
Informations-Begriffs. Inauguraldissertation der Philosophisch-naturwissenschaftlichen
Fakultät der Universität Bern
Henrichs, Norbert (1997): Informationswissenschaft. In: Buder, Marianne et al. (Hrsg.)
(1997): Grundlagen der praktischen Information and Dokumentation : ein Handbuch zur
Einführung in die fachliche Informationsarbeit. 4. voellig neu gefasste Ausg. - München
; London ; New York ; Paris : Saur. 945-957.
Jaenecke, Peter (1998): Forschungsorientierte Wissenschaftstheorie. In: Czap, Hans, Heinz
Peter Ohly, Simone Pribbenow (1998): Herausforderungen an die Wissensorganisation:
Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen
Sektion der Gesellschaft für Wissensorganisation. Berlin, 7.-10.10.97. Fortschritte in
der Wissensorganisation, Band 5. Ergon-Verlag, Würzburg., 287-319.
Lehner, Christoph (1996): Studieren nach der zweiten industriellen Revolution. In:
tekom-Nachrichten, 3/96, 44-46
Losee, Robert M. (1997): A Discipline Independent Definition of Information. In: Journal
of the American Society for Information Science 48 (3) 1997, 231-269.
Losee, Robert M. (in press): Communication Defined as Complementary Informative Processes.
In: Journal of Information, Communication and Library Science. (in press).
Maier, Ronald und Franz Lehner (1994): "Wert" des Informationsgegriffs
Vorschlag für eine theoretische Neukonzeption. In: Rauch, Wolf (Hrsg.) (1994): Mehrwert
von Information- Professionalisierung der Informationsarbeit. Konstanz, 33-50.
Stegmüller, Wolfgang (1979): Hauptsrömungen der Gegenwarts-Philosophie. BandII. Kröner,
Stuttgart.
Steinmüller, Wilhelm (1993): Informationstechnologie und Gesellschaft: Einführung in die
Angewandte Informatik. Darmstadt: Wissenschaftliche Buchgesellschaft.
Uexküll, Thure von (1993): Biosemiotik. In: Titzmann, Michael (Hrsg.) (1993):
Zeichen(theorie) und Praxis : 6. internationaler Kongreß der Deutschen Gesellschaft für
Semiotik; 8. - 11. Oktober 1990; Passau : Wiss.-Verl. Rothe. |
Universität
Hildesheim
Institut f. Angewandte Sprachwissenschaft Marienburger Platz 22
31141 Hildesheim Tel.: 05121 883843 |
lehner@cl.uni-hildesheim.de |
16. |
Leidig, Dr. Torsten |
Technologische Aspekte didaktischer Ontologien |
|
Abstract:
Im BMBF-Leitprojekt L3 werden insbesondere Autorenwerkzeuge und eine web-basierte
technische Lauftzeitumgebung entwickelt. Die konzeptionelle Modellierung auf Basis von
didaktischen Ontologien und die Steuerung auf Grund dieser didaktischen Modelle sind dabei
ein wesentlicher neuer Ansatz, der die Probleme Adaptivität im Lern- bzw.
Navigationsprozeß, Wiederverwendung von verschiedensten Lehrmaterialien in
unterschiedlichen Kontexten sowie die Verwaltung großer Wissensmengen lösen kann. Die
didaktische Beschreibung der einzelnen Lerninhalte und ihrer Beziehungen gemäß der
didaktischen Ontologie kann dann beim Kursablauf dazu verwendet werden, die der momentanen
Sitution angepaßten Lernobjekte zu finden und zu präsentieren.Der Vortrag skizziert die
Grundzüge einer auf Conceptual Graphs basierenden, integrierten Architektur für das
Telelearning. Ein besonderer Schwerpunkt liegt in L3 trotz der verbesserten
didaktisch-gesteuerten Navigationsunterstützung auf der Kooperation mit Tutoren,
Lernberatern, Assistenten und anderen Lernenden. Für die Kooperation werden synchrone
Kommunikationstechniken genutzt, wie etwa das gleichzeitige Arbeiten an einer gemeinsamen
Aufgabe in einem virtuellen Raum mit der zusätzlichen Unterstützung durch
Audio-/Video-Verbindungen, aber auch asynchrone Kooperationstechniken Neue interessante
Perspektiven ergeben sich mit Ontologien dabei im Intranet-Bereich durch
training-on-the-job oder auch just-in-time Lernen, d.h. der Integration von Lernen mit den
Tätigkeiten am Arbeitsplatz. Indem ontologisch beschriebene Lerninhalte zusätzlich mit
einer domänen-spezifischen Beschreibung von Geschäftsprozessen und den damit verbundenen
Aufgaben, Anforderungen und Kompetenzen verknüpft werden, kann, eine
Werkzeugunterstützung der Prozesse vorausgesetzt, ähnlich einer kontext-sensitiven Hilfe
auch Lernen angeboten werden - gerade dann, wenn es im Laufe eines Prozesses oder
Projektes benötigt wird. |
SAP AG, CEC
Karlsruhe
Vinzenz-Prießnitz-Str. 1
76131 Karlsruhe0721-690235 |
leidig@qkal.sap-ag.de |
17. |
Lenski, Dr. Wolfgang |
Gleichheitsbegriffe für hoch-strukturierte Datenbestände |
|
Abstract:
Die Ausgabe von 'redundanten' Daten insbesondere bei der Recherche über mehrere
dezentrale Datenbanken hinweg ist ein Problem, das allen BenutzerInnen von entsprechenden
Informationssystemen wohl bekannt ist und einer zielgerichteten und möglichst effizienten
Fokusierung auf nützliche Ergebnisse im Wege steht. Bei hoch- oder heterogen
strukturierten Datenbeständen handelt es sich dabei i.a. nicht um die Frage syntaktischer
Gleichheiten, die bereits durch triviale Anwendung von Vergleichsoperatoren der
Datenbankfunktionalität aufweisbar wird. Auch die üblichen Bewertungskriterien des
Information Retrieval wie Precision und Recall gehen am Kern dieser Frage vorbei.
Benötigt ist daher als Grundlage für alle Lösungsansätze zunächst eine systematische
Analyse dieses Problems. Gestützt auf eine Untersuchung über Gleichheitsbegriffe in der
philosophischen Tradition entwickeln wir einen Begriff von 'Gleichheit', der anstatt auf
syntaktischer Identität auf der Basis einer 'informationellen Redundanz' entwickelt wird.
Über eine theoretische Fundierung des Ansatzes hinaus gehend, wird abschliessend ein
operationalisierbarer Umgang mit diesem Begriff skizziert. |
Forschungsstelle
Mathematische Logik der Universitaet Kaiserslautern Heidelberger Akademie der
Wissenschaften Fachbereich Informatik Postfach 3049
D-67653 Kaiserslautern Tel: +49+631+205+3355
Fa: +49+631+205+3357 |
lenski@informatik.uni-kl.de |
18. |
Matzat, Uwe |
Academic Communication and Internet
Discussion Groups: Transfer of Information or Creation of New Contacts? |
|
Abstract:
Many researchers of different disciplines use Mailing
Lists and Newsgroups to communicate with known and unknown colleagues all over the world.
Nevertheless is the relevance of these Internet Discussion Groups (IDGs) for academic
communication still unclear.
Studies of IDGs show that some users evaluate them as useful for the creation of new
research ideas, for the transfer of information and for getting into contact with other
researchers (e.g. Tombaugh, 1984; Hiltz & Turoff, 1993; Rojo & Ragsdale, 1997a,
1997b). Other authors criticise the low quality of the discussions within some IDGs
(Conner, 1992; McCarty, 1992) and many researchers hesitate to use them at all (e.g.
Lewenstein, 1995). Still other authors have the fear that electronic communication means
like email and IDGs create new barriers between researchers because of the restricted use
of some IDGs (e.g. Bainbridge, 1995; Meadows & Buckle,1992).
This presentation reviews the different hypotheses and expectations
that are expressed about the effects of IDGs for academic communication. It reviews the
(sparse) empirical evidence for or against these hypotheses and the drawbacks of these
studies. First results of a new study are presented that tries to test some of these
hypotheses more systematically. |
ICS / Department of
Sociology
University of Groningen
Grote Rozenstr. 31
NL-9712 TG Groningen Tel: (+31)/(0)50/363-6237
Fax: (+31)/(0)50/363-6226 |
U.Matzat@PPSW.RUG.NL |
18a |
Mayer,
Matthias
F. Fietzek / M.
Lehnhardt / Matthias Mayer / M. Meyer / H. Obendorf / P. Schefe / T. Stendel /
I. Thomsen
|
Kontextvisualisierung:
BrowsingIcons und BrowsingGraphs zur Verbesserung der Orientierung und
Navigation im World Wide Web
LEM-/iWorlds-Präsentation
Vortragsort:
Labor für elektronische Medienkommunikation,
Medieninformatik und Medienkunst - LEM
Haus der Multimedia-Produzenten
Behringstraße 28a, Eingang 2 (obere Etage)
D 22765 Hamburg-Ottensen
Tel: 428 83 2425
(gesonderte Anmeldung bis 15.9. bei pribbeno@informatik.uni-hamburg.de erforderlich) |
|
Abstract:
Das LEM wird sich als interdisziplinäres Labor ziwschen Hamburger Hochschulen, Kunst,
Kultur und Wirtschaft vorstellen. Dazu werden Einblicke in derzeitige Forschungsprojekte
gegeben. Im Anschluss wird speziell das Projekt "iWorlds" vorgestellt, welches
sich mit der Verbesserung der Schnittstelle zwischen Menschen und grossen Datenbeständen
beschäftigt, wie sie beispielsweise in Form des WWW oder von online-Bibliotheken gegeben
sind. Speziell wird dabei auf Verfahren der räumlichen Visualisierung von Informationen
eingegangen. Die Vorstellung wird abgerundet durch einen Überblick über derzeitige
3D-Visualisierungen im WWW. Die Veranstaltung findet statt am LEM, um auch die räumlichen
Gegebenheiten, den Ort der Projekte zu vermitteln und einige Exponate vorstellen zu
koennen.Im einzelnen werden folgende Projekte
vorgestellt:
BIN - das "Baltic Interface Net", entwickelt eine Kooperationsbasis zwischen
Künstlern und Kulturinstitutionen in den 11 Ostsee-Anrainerstaaten. Der deutsche Partner
(Entrypoint) ist das LEM. Interkultureller Austausch soll durch die Entwicklung neuer
Formen der Information, Kommunikation und Kollaboration über Sprachgrenzen hinweg
stattfinden.
HMP3D - dreidimensionale Webschnittstelle fuer das Haus der Multimediaproduzenten. Durch
ein digitales Modell des Hauses bekommt der Webbenutzer die Möglichkeit, Informationen
zum Gebaeude innerhalb der architektonischen Gegebenheiten zu "begehen",
Zusammenhänge sind durch transparente "Wände" zu sehen. Informationen zu
Projekten werden im Kontext der Architektur verräumlicht.
iWorlds - information Worlds. Ziel ist die Entwicklung angemessener Schnittstellen zu
grossen Informationsbeständen.
Bisherige zeilenorientierte textuelle Interfaces sind nur wenig
geeignete Hilfsmittel zur Erschliessung grosser Informationsbestände. Die Präsentation
einer linearen Liste von Einträgen ist z.B. als Antwort auf eine Suchanfrage bei
größerem Umfang nicht benutzungsadäquat. Eine Alternative ist eine 2D- oder
3D-Präsentation, die direkte Manipulation und dynamische Reformulierung der Anfrage
unterstuetzt.
Neben der Suche in ungeordneten Dokumentenkollektionen soll aber auch die Navigation und
Orientierung beim sogenannten Browsen, d.h. der Suche entlang Verweisen auf andere
Dokumente, unterstützt werden. Im Projekt werden bestehende Verfahren zur Visualisierung
von Dokumentenkollektionen und -systemen aufgearbeitet und neue entwickelt. Ein spezieller
Ansatz, der von uns verfolgt wird, ist die Darbietung 3-dimensionaler interaktiver
Visualisierungen von WWW-Strukturen. Synchronisiert zum Browsen soll die zielorientierte
Navigation im Web damit verbessert werden.
Ferner wird angestrebt, nicht nur die Informationen sichtbar zu machen, sondern auch die
Menschen visuell zu repräsentieren, die mit ihnen umgehen. In diesem Sinne kann man von
"belebten" Informationswelten sprechen. |
Arbeitsbereich
LEM-Projekt
Fachbereich Informatik
Universität Hamburg
Vogt-Kölln-Straße 30
22527 Hamburgtel +49 40 428 83 2309
fax +49 40 428 83 2311 |
mayer@informatik.uni-hamburg.de |
19. |
Meder, Prof. Dr.
Norbert |
Objekte in didaktischen Ontologien |
|
Abstract:
Unter didaktischen Objekten verstehen wir Beschreibungen, die ein Wissensmodul (ein
Dokument etc.) in einen didaktischen Zusammenhang des Lehrens und Lernens stellen. Der
Vortrag wird die Begrifflichkeit zu solchen Beschreibungen vorstellen. Sie ist abgeleitet
von den didaktischen Modellen im Göttinger Katalog (Flechsig) sowie aus der
traditionellen Methodik der Unterrichtsgestaltung, die Verlaufsformen des Lehrens und
Lernens (Methoden im engeren Sinne), Sozialformen und Medien unterscheidet. Die
Begrifflichkeit erlaubt die Charakterisierung von Lernmaterial (Wissensmodulen) in seiner
Funktion für beispielsweise entdeckendes, problemlösendes oder handlungsorientiertes
Lernen und anderes mehr. Darüber hinaus geht es auch um die Kennzeichnung der Funktion in
Szenarien des kooperativen und verteilten Lernens (Sozialform: Gruppenarbeit). |
Universität Bielefeld
Fakultät für Pädagogik/AG10
Universitätsstr. 25
33615 BielefeldTel: 0521/106-3301 |
norbert.meder@uni-bielefeld.de |
21. |
Ohly, H. Peter |
Tutorial: Von der dokumentarischen Bezugseinheit zur
szientometrischen Tabelle |
|
Abstract:
Mit Hilfe des bibliometrischen Aufbereitungs- und Analysetools DATAVIEW werden die
verschiedenen Schritte und Probleme bei der szientometrischen Auswertung von
Dokumentationseinheiten eingeführt. Es werden keine informationstechnischen oder
statistischen Kenntnisse vorausgesetzt. |
IZ
Sozialwissenschaften
Lennestr. 30
53113 BONN Tel.: +49-228-2281-142
Fax.: +49-228-2281-120 |
oh@bonn.iz-soz.de |
22. |
Ohly, H. Peter |
Der 'Stand der Technik' - Eine szientometrische Betrachtungsweise |
|
Abstract:
'State-of-the-Arts' sind Mehrwert-Informationen, die auf qualitativen und quantitativen
Destillaten von Informationen über ein bestimmtes Wissenschaftsgebiet beruhen. Anhand der
Erfahrungen aus der Zusammenstellung der Publikation 'Ernährung und Gesellschaft' wird
aufgezeigt, welche Informationen sich aus bibliographischen Nachweissystemen ziehen
lassen, wie sie zu interpretieren sind und in welchem Wechselspiel zu weiteren
Wissensbeständen sie stehen. |
IZ
Sozialwissenschaften
Lennestr. 30 53113 BONN
Tel.: +49-228-2281-142
Fax.: +49-228-2281-120 |
oh@bonn.iz-soz.de |
22a |
Orthmann,
Dipl.-Psych. Claudia / cand. Psych. Lars Näcke |
Die Chancen virtueller sozialer
Gemeinschaften im Internet für einen interkulturellen Wissenschaftsdiskurs |
30 |
Abstract:
Dieser Beitrag befaßt sich mit der Spezifik virtueller sozialer Gemeinschaften, die in
unserer Welt eine zunehmend größere Bedeutung erhalten. Dabei wird nicht von einem
Ersatz der bestehenden "realen" sozialen Netzwerken/ Beziehungen ausgegangen,
sondern die diese komplementierenden virtuellen Gemeinschaften sollen in ihren
Möglichkeiten und Grenzen diskutiert werden. Anhand von bestehenden, sich ständig
weiterentwickelnden Gemeinschaften wird exemplarisch die Rolle der virtuellen
Kommunikation für einen Diskurs im Sinne von "doing culture" betrachtet.
Virtuelle soziale Gemeinschaften bieten für die Wissenschaft noch zu erschließende
Formen und Perspektiven: Räume für interkulturelle sowie weniger hierachisch
strukturierte Diskurse. Abschließend wird die konkrete Realisierungsmöglichkeit dieses
Anspruchs u.a. am Beispiel von Online-Instituten vorgestellt werden. |
Freie Universität
Berlin
FB Erziehungswissenschaft & Psychologie, WE 11
AB Medienforschung
Malteserstr. 74-100, Haus L
12163 Berlin030/7792-305
Priv: 030/7912519
Fax: 030/7761131
Lars Näcke
privat:
Schmollerstraße 9, 12435 Berlin
dienstlich:
z.H. Frau Esther Lang
Fachbereich Erziehungswissenschaft und Psychologie
Institut für Arbeits-, Organis
tions- und Gesundheitspsychologie
Arbeitsbereich Entwicklungspsychologie
Habelschwerdter Allee 45
14195 Berlin
Telefon privat: 030 5346240
Telefon dienstlich: 030 8383630 |
abele@zedat.fu-berlin.de naecke@psychologie.de
Email Näcke privat: einhorn@zedat.fu-berlin.de |
24. |
Plutat, Birte,
M.A. |
"Darunter hätte ich nicht
nachgeschaut..." Erschließungssysteme und Nutzerbeteiligung |
30 |
Abstract:
Wenn wir als Informationsspezialisten Daten erschließen, etwa Bücher in den Bibliotheken
systematisieren, stützen wir uns in der Regel auf bewährte Klassifikationen als
Ordnungen des Wissens.Im Kontext alltagsorientierter Informationsbereitstellung z.B. der
Öffentlichen Bibliotheken wurde dies schon vor längerer Zeit als unbefriedigend erkannt.
Die Entwicklung von Interessenkreisen oder die Konzeption der Kabinette in der
Stadtbibliothek Paderborn sind Reaktionen darauf.Grundsätzlich begegnen wir demselben
Problem bei der Erschließung von derartigen Informationen für die Präsentation im World
Wide Web. Die Übertragung etablierter Lösungen auf die Organisation der Informationen im
WWW erweist sich als unzureichend in Bezug auf das Auffinden der Informationen durch den
Endnutzer.Will man Nutzerorientierung ernst nehmen, sollte man bestrebt sein, bereits in
den Gestaltungsprozeß des Informationszugriffs Nutzer einzubeziehen.Es sollen Methoden
diskutiert werden, mit denen vor allem bei der Erstellung klassifikatorischer Zugriffe
bzw. bei der Verbesserung installierter Angebote im WWW Nutzerbedürfnisse und -verhalten
berücksichtigt werden können. |
Forschungsgruppe
Telekommunikation, FB Informatik Universitaet Bremen Postfach 330440, 28334 Bremen
Tel.: +49 +421 218-2833
Fa:-4894 |
plutat@informatik.uni-bremen.de |
24a |
Rahmstorf, Prof.
Dr. Gerhard (ggf. mit Prof. Gerhard Budin) |
Workshop: Wortschatz und
begriffliche Strukturen |
60 |
Themen:
Softwaretechnik für Wortschatz- und Strukturerfassung
Anwendungsfelder Terminologiesoftware, Thesaurusprogramme, Retrieval. Inkompatibilitäten
und Probleme der Wort-Modellierung. Die Concepto-Technologie. Die Einführung der
Begriffssprache.Erfahrungen mit dem
Aufbau von Begriffssystemen
Neues zum Aufbau von Begriffssystemen: praktische Hinweise zu Strukturbedingungen,
Relationen, Darstellung von Wörtern verschiedener Wortarten, Individualbegriffen u. a.
Mehrsprachigkeit.
Wege zum kooperativen Arbeiten an Begriffssystemen
Identifizierung und Klassifizierung von Wortbedeutungen. Einigung auf bestimmte
Festlegungen. Probleme des Veränderungsmanagements.
Perspektiven für die Wissensorganisation
Begriffssysteme in Indexierung, Retrieval, Wissensordnung, Navigation,
Wörterbuchherstellung und Übersetzung. Verknüpfung von Begriffssystemen und Thesauren
bzw. Klassifikationssystemen. Datenaustausch mit anderen Systemen.
Ziel des Workshops ist nicht nur, Techniken und Methoden zu vermitteln, sondern auch
Erfahrungen und Vorschläge von Teilnehmern bzw. Benutzern zu diskutieren.
Dieser Tagungsbeitrag wendet sich auch an Kollegen, die sich mit dem Aufbau von
Begriffssystemen mit Concepto befaßt haben. Es besteht die Möglichkeit, Fragen zur
Benutzung und Methode am System zu klären. |
Oberer Rainweg 57
D-69118 Heidelberg
Tel. 06221-808129
Fax 06221-802682 |
rahmstorf@regio-info.de |
24b |
Rahmstorf, Prof.
Dr. Gerhard |
Szientographie: Versuch einer Klärung |
|
Abstract:
Szientographie als eigenes Fachgebiet zeichnet sich erst in groben Umrissen ab.
Einige benachbarte Arbeitsfelder der "Wissensbeschreibung" sind dagegen bekannt
und in Lehre und Forschung etabliert: Wissenschaftstheorie, Logik, Texttheorie,
Informationswissenschaft, Bibliometrie, Psychologie der kognitiven Fähigkeiten
(Gedächtnis, Denken u. a.), auch Wissensrepräsentation, und letztlich auch
Wissensorganisation.
Die Klärung dessen, was wir Wissen nennen, ist nicht nur ein theoretisches Bedürfnis.
Die Wissensgesellschaft benötigt ein solides Fundament für die Entwicklung der Software,
die das Wissen managen soll.
In dem Beitrag wird versucht, das personbezogene Phänomen des subjektiven Wissens und das
in Texten und anderen Darstellungsformen objektivierte Wissen zu charakterisieren und
ihren Zusammenhang zu verstehen. Es wird die Frage gestellt, was das Gemeinsame dieser
beiden "Arten" von Wissen ist.
Beim subjektiven Wissen liegt das Problem in dem, was wir als Ausgangsgegebenheit des
Gedächtnisses annehmen: neuronale Signale und deren physische Spuren im Gehirn einerseits
oder intentionale Gegenstände des Denkens (Begriffe) andererseits. Zwischen den immer
noch hypothetischen Spuren des Gedächtnisses und den Vorstellungen, die wir uns von einer
Begriffsrepräsentation machen, klafft eine Lücke.
Beim objektivierten Wissen verstellt uns die zunächst naheliegende Vorstellung, die
Texte, die das Wissen vermitteln, seien schon das Wissen selbst, die Einsicht in das, was
objektiviertes Wissen wirklich ist. Die Einzelsprachen, in denen wissenschaftliche Texte
abgefaßt sind, sind Darstellungsmittel. Die verwendete Terminologie der Einzelsprache,
der Stil des Verfassers, die inhaltliche Gliederung der Texte, die gesamte Linearisierung,
die mit der Vertextung des Wissens erfolgt, all das sind Eigenschaften, die mit dem
Darstellungsmittel und den Gestaltungsentscheidungen des Autors zusammenhängen, aber
nicht zum Wissen selbst gehören. Was bleibt dann als Wissen übrig?
Vom Text ausgehend ist die Annahme plausibel, daß Wissen aus Propositionen besteht.
Andererseits kennen wir das nichtpropositionale bildhafte Wissen im Gedächtnis. Die
Szientographie muß daher nicht nur von der Linearisierung des Textes und von der
Einzelsprache abstrahieren, sondern auch die gemeinsamen Wissensinhalte sprachlich und
bildhaft dargestellter Mitteilungen erkennen können. (Vgl. Beiträge der deutschen ISKO
Tagung 1997 in Berlin). Kein Patient würde sich einem Chirurgen anvertrauen, der kein
detailliertes bildhaftes Wissen von den Organen des menschlichen Körpers hätte.
Dreidimensionale, virtuelle Welten zeigen uns die technischen Möglichkeiten auf. Um das
Thema der Szientographie abzugrenzen, sind daher nicht nur Begriffe und Propositionen,
sondern auch Wahrnehmungen und Gegenstände einzubeziehen, und zwar subjektgebunden und
objektiviert als Bilder.
Dieser Versuch einer Klärung sollte nützliche Hinweise für den Entwurf von Anwendungen
und Wissenssystemen mit konkretem Einzelwissen geben können. Die Szientographie hat nicht
nur das Wesen des Wissens zu beschreiben, sie sollte auch die Struktur des Wissens
angeben. Damit wird die Frage nach den Einheiten gestellt, in die der gesamte Bestand
zerlegt werden kann. Die Prozesse der Wissensorganisation bauen darauf auf: Wissensmodule
bausteinartig abgrenzen, geeignet darstellen, systematisch einordnen, in einer
Computerumgebung enzyklopädisch oder als Hypertext anbieten, in verschiedenen Sprachen
benennen, indexieren und letztendlich recherchierbar machen. |
Oberer Rainweg 57
D-69118 Heidelberg
Tel. 06221-808129
Fax 06221-802682 |
rahmstorf@regio-info.de |
25. |
Redeker, Dipl.-Paed.
Giselher |
Didaktische Ontologien - Stand der internationalen Forschung |
|
Abstract:
Ungeachtet der Fortschritte im Bereich des Instructional Design sind die meisten
hypermedia-basierten Lernumgebungen im Internet (WWW) nicht viel mehr, als
"Folien-Blättermaschinen". Ein weiterer Nachteil liegt darin, daß die einmal
erstellten Ressourcen nicht ohne weiteres in anderen Kontexten wiederverwendet werden
können. Ein Vorschlag, für eine qualitative Verbesserung webbasierter Lernumgebungen
besteht darin, didaktisches Wissen - in Form von Metadaten - explizit in den Autoren- und
Lernprozeß zu integrieren. Ausgehend von den Bemühungen innerhalb der Web-Community
einen Standard für (allgemeine) Metadaten zu entwickeln, werden im Rahmen des Beitrages
erste internationale Ansätze für die Entwicklung einer didaktischen Beschreibungssprache
dargestellt. |
Universitaet
Bielefeld Fakultaet fuer Paedagogik - AG 10 Informatik im Bildungs- und Sozialwesen
Postfach 10 01 31
33501 Bielefeld
fon: +49/521/106-3962
fa: +49/521/106-6028 |
giselher.redeker@uni-bielefeld.de |
26. |
Rost, Martin |
Mailinglists
und wissenschaftlicher Diskurs |
|
Abstract:
Neben der Präsentation statistischer Daten zu den beiden
Mailinglists"soziologie@listserv.gmd.de" und "luhmann@listserv.gmd.de"
werden einige Überlegungen angestellt, welche Vorkehrungen zu treffen wären, um
Mailinglists besser als bislang für den Diskurs der Scientific-Community nutzbar zu
machen. |
Martin Rost
Fasanenweg 9a
24631 LangwedelTelefon/ Fax: 04329 92266 |
maro@maroki.netzservice.de |
27. |
Schmitz-Esser, Prof.
Dr. W. |
Gedankenraumreisen
Thesaurusstrukturen, multimedial präsentiert, machen Anregung, Spielen, Lernen, Finden
möglich für jedermann. |
45 |
Abstract:
Zahlreich sind die Versuche, Strukturen begrifflicher Relationen, wie sie in Thesauren
niedergelegt sind, durch Visualisierung verständlicher zu machen, doch nirgends ist das
bisher in überzeugender Weise gelungen. Damit blieb der Gebrauch von Thesauri durchweg
auf Fachleute (Dokumentare) verwiesen und eine Anwendung in der Breite fand nicht statt.
Mit den neuen Möglichkeiten visueller und auditiver Darstellung, wie sie nun die
Informationstechnologie bietet, läßt sich das ändern. Berichtet wird über ein Projekt
im Zusammenhang mit der EXPO2000, bei dem versucht wird, bisher weitgehend ungenutzte
Potentiale von Thesauri für die Interaktion am Computer zu nutzen. Akteur am Point of
Information ist dabei jeder Interessierte, gleich ob Laie oder Fachmann, Gegenstand der
Strukturierung die Welt im Jahre 2000, Zugangssprache die Sprache der allgemeinen
Kommunikation. Einsicht in die begrifflichen Strukturen in dem Sinne, daß man sie
versteht, ist nicht erforderlich, die multimediale Präsentation ermöglicht sensitives
Erfassen und nähert sich gewohntem intuitiven Umgang mit Begrifflichkeiten. Jedermann
kann so durch den Gedankenraum "reisen", sinnvollen Verknüpfungen und
Wirkketten nachspüren, begriffliche Klärung und Einsichten gewinnen, für den Begriff
das richtige Wort finden. Bei solch einer Reise wird er zugleich auch auf überraschende
Zusammenhänge stoßen. Der Sprung in die Quellen wird von jedem angesteuerten Punkt aus
möglich. Die Grenzen herkömmlichen Information Retrievals zerfließen damit und öffnen
sich hin zu neuen, bisher vernachlässigten Räumen: dem Erleben, der Anregung, dem
sinnvollen Spiel, der Überraschung, dem unterhaltsamen Lernen. |
Information Systems
Consultancy Rothenbaumchaussee 3 D-20148 Hamburg Germany
Tel. +49/40/45038604
Fa +49/40/45038606 |
Schmitz_Esser@CSI.com |
|
Schott, Hannelore |
Thesaurus
Sozialwissenschaften online |
|
Abstract:
Es wird die elektronische Version des "Thesaurus Sozialwissenschaften"
vorgestellt. In Anlehnung an die mehrfach neu aufgelegte gedruckte Ausgabe kann zwischen
alphabetischer und systematischer Darstellung und deutsch- oder englischsprachiger Version
gewählt werden. Die Funktionen Suche und Navigation im Vokabular
werden vorgeführt. Über eine Export-Funktion kann der Thesaurus zur Indexierung in den
Datenbanken SOLIS und FORIS des InformationsZentrum Sozialwissenschaften eingesetzt
werden. |
IZ
Sozialwissenschaften, Bonn |
hs@bonn.iz-soz.de |
27a |
Schulz, Matthias |
Tutorial: XML (gesonderte Anmeldung
bis 15.9. bei matthias.schulz.1@rz.hu-berlin.de erforderlich) |
|
Abstract:
Von der papierenen Dissertation zur strukturierten Dissertation: Einführung in die
Strukturbeschreibung von Volltexten mit XML. Nur gestreift werden folgende Bereiche.
Stylesheet Spezifikation XSL, Link Spezifikation XLINK Namesräume, RDF und Schemata |
IuK-Projekt
"Dissertation Online" (Teilprojekt Formate) privat:
Vinetastraße 64
13189 Berlin |
matthias.schulz.1@rz.hu-berlin.de |
28. |
Schulz, Prof. Ursula
|
Anwenderpartizipation bei der Entwicklung eines Kinder-OPACs |
|
Abstract:
* Die Definitionsmacht über die Funktion von Bibliothekskatalogen liegt bei den
Bibliothekaren - nicht bei ihren Kunden. Die noch heute gültige, von Charles A. Cutter
formulierte Funktion von Bibliothekskatalogen stammt aus dem 19. Jahrhundert. Sie
entsprichtdem bibliothekarischen Bedürfnis nach Verwaltung des vorhandenen Buchbestandes.
* Gleichzeitig stehen vor allem öffentliche Bibliotheken unter Legitimationsdruck. Ihr
wesentlicher öffentlicher Auftrag ist die Leseförderung ein wesentlicher
Leistungsindikator ist die Ausleihstatistik.
* Bibliothekskataloge könnten ein Werkzeug der Förderung beider Ziele sein. Ihr Design
und die in ihnen enthaltene Information sollte deshalb - wie Warenkataloge -
absatzorientiert und an den Informationsinteressen der Kunden orientiert sein.
* Partizipation der Kunden bei der Gestaltung von Bibliothekskatalogen ist ein Weg, in
einen intensiven Kommunikationsprozeß zwischen Entwicklern, Bibliothekaren und Kunden
einzutreten, dabei eine gemeinsame Sprache zu finden und mehr über die Interessen und
Bedürfnisse der Kunden in Erfahrung zubringen.
* Kinder sind wichtige Kunden öffentlicher Bibliotheken. Bücher-Reise, für
8-11-jährige Kinder, ist ein Kundenkatalog. Er entstand unter Partizipation von Kindern.
Benutzerpartizipation: Ein flexibles Modell der partizipativen Softwareentwicklung ist
STEPS(Softwaretechnik für evolutionäre partizipative Systementwicklung). Im Rahmen der
Entwicklung von Bücher-Reise wurde das Konzept Benutzer' wurde neu reflektiert und
führte zu einer Trennung zwischenBenutzer-Anwälten' (hier: Bibliothekare) und
Benutzern' (hier: Kinder)- und zwar dann, wenn Kunden über keine bewußten
domainspezifischenVorstellungen verfügen. Im Rahmen der Entwicklung von
Bücher-Reisewurden verschiedene Methoden der Partizipation von Kindern bei der
Entwicklung eines Bibliothekskatalogs getestet. |
FB Bibliothek und
Information 20146 Hamburg
040-44195-2357
Priv.: 0421-44 50 49
Fax: 040-44195-2392 |
uschulz@zfn.uni-bremen.de |
30. |
Sigel, M.A.,
Alexander |
Zum Wert multipler und adaptiver
Indexierung mittels
Konzeptrahmen am Beispiel von Anfragen in den
Sozialwissenschaften |
|
Abstract:
Dieser Beitrag diskutiert, wie präkoordinierendes Indexieren mittels an eine Ontologie
gebundener Konzeptrahmen (Frames) zur bestmöglichen Inhaltserschließung
(Wissensrepräsentation) von stereotypischen Sachverhaltszusammenhängen in Kerndokumenten
beitragen kann, die für modellierte Nutzerinteressen potentiell relevant sind. Besonderes
Potential bietet die multiple Indexierung von Dokumentpassagen aus Sicht unterschiedlicher
Nutzergruppen sowie die Möglichkeit der Anpassung von Indexierungsparametern an
Informationsbedarfe von Nutzergruppen. Die Beispiele in diesem Beitrag sind aus realen
Anfragen an das Informationszentrum Sozialwissenschaften fortentwickelt. Längerfristiges
Ziel ist es, auf dieser Basis ein computergestütztes System zur konzeptuellen Indexierung
zu entwickeln. |
IZ
Sozialwissenschaften
Lennestr. 30
53113 Bonn |
sg@bonn.iz-soz.de |
31. |
Spinner, Prof. Dr.
Helmut F. |
Plenarvortrag: Gegenständliche, prozedurale und konstitutionelle Ordnungen des
Wissens: Wissensarten, Wissenssorten, Wissensregime |
75 |
Abstract:
Das laufende Wissensarten-Projekt (angefangen 1997) ist
eine Fortführung und Ergänzung des Wissensordnungs-Projekts (Spinner 1994), um
einerseits die heterogenen >Ordnungen des Wissens< zu entwirren und andererseits mit
Inhalt zu füllen.
Folglich werden im ersten Teil zunächst die maßgeblichen Ordnungsansätze unterschieden:
(1) >Ontologische< Ordnungen symbolischer (Begriffe, Propositionen u. dgl.) oder
materieller (Bücher, Dokumente etc.) Wissensobjekte als gegenständliche Wissensorganisation
der Bestände, Sorten, Träger.
(2) >Prozedurale< Ordnungen der Operationen und Prozesse als untechnische
(heuristische) oder technische (algorithmische) Wissensrepräsentationen der
Abläufe, Arbeiten, Verfahren etc.
(3) >Konstitutive> Ordnungen der gesellschaftlichen Leitbestimmungen und empirischen
Randbedingungen als einrahmende ordnungspolitische Wissensordnungen (bei
einseitiger Dominanz: Wissensregime).Im
zweiten Teil wird eine differentiellen Wissenstheorie (erster Entwurf Spinner 1997a) zur
Erfassung der Artenvielfalt des Wissens vorgestellt. Im Mittelpunkt steht ein
philosophisch abgerüstetes, analytisch differenziertes, praktisch nichtdiskriminierendes
(modulares bzw. Montage-)Wissenskonzept für >Wissen aller Arten, in jeder Menge und
Güte<, mit den drei Modulen A=Information, B=Validation, C=Selektion und darauf
bezogenen Wissensfaktoren: Modul A zur inhaltlichen Wissensbestimmung als
semantische Information; Modul B zur qualifizierenden Wissensvalidierung als E-
oder U-Wissen (z. B. als kriteriengebundene wissenschaftliche Erkenntnis oder als
>kriterienfreie< Low Quality-Information wie Unterhaltung, Werbung, Verwaltung);
Modul C zur pragmatischen Wissensbewertung nach alternativen Präferenzen
(zugunsten von Neuigkeit, Wichtigkeit, Brauchbarkeit, Stimmigkeit etc.) als aktivierte
Kenntnisse bzw. handlungsleitendes Können.
Vortragsrelevante Veröffentlichungen des Autors:
(1) Die Wissensordnung Ein Leitkonzept für die dritte Grundordnung des
Informationszeitalters, Opladen: Leske + Budrich, 1994.
(2) Differentielle Erkenntnistheorie zur Untersuchung von >Wissen aller Arten, in jeder
Menge und Güte< -- Ein Montagekonzept des Wissens für das Informationszeitalter; in:
Christoph Hubig, Hrsg., Conditio Humana -- Dynamik des Wissens und der Werte, XVII.
Deutscher Kongress für Philosophie, Berlin: Akademie Verlag, 1997a, S. 497-520 (Skizze
des neuen Wissenskonzepts, aber noch ohne Modul C).
(3) Wissensregime der Informationsgesellschaft >Wissen aller Arten, in jeder
Menge und Güte< als Gegenstand der Rechts-, Wirtschafts- und Wissensordnung; in:
Jahrbuch Telekommunikation und Gesellschaft, hrsg. von Herbert Kubicek u. a., Bd. 5,
1997b, S. 65-79.
(4) Die Architektur der Informationsgesellschaft, Bodenheim: Philo-Verlag, 1998.
Zur Zeit in Arbeit:
Monographien zum Wissensarten-Projekt sowie über
(rechtliche, ökonomische, kognitive, technische) Wissensregime. |
Studium Generale
Universität Karlsruhe (TH)
Kollegium am Schloß, Bau II
Postfach 6980
76128 KarlsruheTel: 0721/608-3085
Tel: 0721/608-2043 (Sek.)
Fax: 0721/608-6148 |
Helmut.Spinner@geist-soz.uni-karlsruhe.de |
31a |
Stegbauer, Dr.
Christian / Rausch, A. |
Die Rolle der Luker in Mailinglisten |
|
Abstract:
Obwohl passive Teilnehmer (Lurkers) in den meisten Onlineforen die Mehrheit stellen, ist
ihre Rolle weitgehend unerforscht. Dies liegt daran, daß Lurkers in den allermeisten
Fällen nicht empirisch faßbar sind. In der Literatur werden sie daher in der Regel
vernachlässigt oder lediglich am Rande erwähnt. Werden sie explizit behandelt, faßt man
sie als Trittbrettfahrer auf. Lurkers zögen Nutzen aus den Kommunikationsprozessen, ohne
einen eigenen Beitrag zu leisten (z.B. Kollock und Smith1994). Unserer Ansicht nach
resultiert eine von der Größe des Kommunikationsraumes abhängige Menge an passiven
Teilnehmern allein schon aus den strukturellen Anforderungen zur Ermöglichung von
Kommunikation. Eine Betrachtung von Kommunikationsräumen, ohne die Mehrheit der
Teilnehmenden zu berücksichtigen, wird daher immer ein verzerrtes Bild ergeben.
In Newsgruppen lassen sich lediglich die aktiven Benutzer erfassen, über passive
Teilnehmer hingegen kann keine Aussage getroffen werden.
Anders in Mailinglisten: durch den notwendigen Eintrag in die Subskribentenliste werden
geschlossene Kommunikationsräume definiert. Da diese Liste mitgeführt werden kann,
lassen sich neben den aktiven Teilnehmern auch die passiven Mitglieder identifizieren.
Die Kombination einer Analyse der Subskribentenliste mit den Archiven der aktuellen
Teilnehmer im Zeitverlauf erlaubt die Untersuchung von Lurkern. Es läßt sich die Frage
beantworten, ob und unter welchen Bedingungen aus Lurkern aktive Teilnehmer werden, bzw.
ob und wann aktive Teilnehmer in die Position von Lurkern zurückfallen. Da die
Untersuchungen an sechs Mailinglisten mit Themenüberschneidung vorgenommen wurden, läßt
sichzeigen, daß Lurker in der einen Liste nicht unbedingt auch Lurker in der anderen
Listen sind. Insofern könnte ihnen eine ähnlich wichtige Rolle wie den Aktiven bei der
Übertragung von Informationen aus dem einen in den anderen Sozialraum zukommen. |
Johann
Wolfgang Goethe-Universtität
FB Gesellschaftswissenschaften
Wbe Methodologie
Robert-Mayer-Straße 5
D-60054 FrankfurtTel. 069 - 7982 2274
Fax 069 - 7982 3344 |
Stegbauer@soz.uni-frankfurt.de |
33. |
Stephan, Prof. Peter
Friedrich |
Session mit Asmus: Theoriebildung als Gestaltungsaufgabe |
20 |
Abstract:
Ob Lullus, Leibniz oder Luhmann: die Arbeit an theoriefähigen Systemen erkennt zwei
Prämissen an: Die Abhängigkeit der Kommunikation von Materialität und die Dominanz
technischer Systeme zur Erzeugung, Repräsentation und Nutzung von Komplexität. Wenn
anerkannt wird, daß die Möglichkeiten und Grenzen medialer Repräsentation der
Theorieentwicklung nicht äußerlich bleiben, sondern als Randbedingung in das Sag-, Zeig-
und Denkbare eingehen, so ist zu fragen, wie sich dies im Kontext heutiger Computersysteme
für die Produktion von Aussagen und Sinnzusammenhängen auswirkt. 1. Aussagen sind an den
Gebrauch von Zeichen geknüpft. Avancierte Mediensysteme bieten neue Möglichkeiten zur
Erzeugung und Manipulation von Zeichen. Bildgebende Verfahren, wissensbasierte Datenbanken
und interaktive, offen vernetzte Systeme ergänzen sich zu einem Medienverbund, der neue
Aussagen- und Erkenntnismöglichkeiten bietet. 2. Aussagen werden nicht nur medial
dargestellt, sondern unter medialen Bedingungen hergestellt. Technische Randbedingungen,
gestaltete Interfaces und mögliche Aussageformen stehen in einer Wechselwirkung. Zusammen
bilden sie Entwurfssysteme, die die Möglichkeiten der Theoriebildung um gestalterische
Aspekte erweitern. 3. Die Theoriemaschine liefert Kommunikationsanlässe durch
anschlußfähig aufbereitete Inhalte. Autoren und Rezipienten treffen sich auf einem
medial vermittelten Schauplatz, dessen Effizienz wesentlich durch ästhetische und
kommunikative Aspekte bestimmt wird. Die Erweiterung wissenschaftlicher Methoden um
gestalterische Aspekte läßt neue Erkenntnis- und Aussagemöglichkeiten erwarten. |
Elektronisches
Publizieren / Multimedia / Netzwerke
Kunsthochschule für Medien
Peter Welter Platz 250676 Köln
Telephone: +49-221-20189-336 / -123
Fax: +49-221-20189-21 |
pstephan@khm.de |
34. |
Swertz, Christian |
Ausbildungsprobleme im Gebrauch von didaktischen Ontologien |
|
Abstract:
Das Verhältnis des Menschen zur objektiven, subjektiven und sozialen Welt ist abhängig
von den Mitteln, die für die Zugänge zu den Welten verwendet werden. Im BMBF -
Leitprojekt 'L3' wird nun eine Autorenumgebung entwickelt, mit der Lehrende Wissen als
dekontextualisierte Wissensmodule formulieren und nach didaktischen Ontologien
spezifizieren. Während sich die Navigation für Lernende intiutiv erschließt, stellt die
Erstellung von Wissensmodulen mit der L3 - Umgebung für die Lehrenden eine doppelte
Herausforderung dar. Zum einen muß das Wissen in eine topologische Struktur gebracht
werden, zum anderen muß das Wissen explizit nach didaktischen Kriterien spezifiziert
werden. Aus der doppelten Herausforderung resultiert ein doppeltes Ausbildungsproblem. Die
nach wie vor bestehende Dominanz des Buchdrucks führt dazu, daß Wissen intuitiv in
linearer Form organisiert wird. Die indidivuelle Präferenz für die lineare
Wissensnanordnung muß in der Ausbildung zum Gebrauch didaktischer Ontologien daher
explizit gemacht und andere Formen der Wissensanordnung vermittelt werden. Neben der
linearen Anordnung bereiten Lehrende Wissen bisher meist für ein bestimmtes didaktisches
Modell auf. Mit der Verfügbarkeit didaktischer Ontologien wird es möglich, Wissen so
organisieren, daß es in mehreren didaktischen Modellen verwendet werden kann. Das macht
differenzierte Kenntnisse und Handlungskompetenzen im Umgang mitdidaktischen Modellen
erforderlich. Angesichts der Komplexität der Lernziele ist es in der Ausbildung zum
Gebrauch didaktischer Onologien erforderlich, nicht nur mit mehreren didaktischen Modellen
zu arbeiten, sondern das zu erwerbende Wissen in einer topologischen Struktur zu
präsentieren und den handelnden Umgang mit Wissen zu trainieren. |
Fakultät für
Pädagogik (AG 10)
Universität Bielefeld
Postfach 10 01 31
33501 Bielefeldt0521/106-3301
f0521/106-6028 |
christian.swertz@uni-bielefeld.de |
35. |
Umstätter, Prof.
Dr. rer. nat. Walther |
Wissensorganisation mit Hilfe des
semiotischen Thesaurus - auf der Basis von SGML bzw. XML |
|
Abstract:
Die Dokumentare blicken heute auf eine rund hundertjährige Diskussion über die richtige
klassifikatorische Erschließung von Dokumenten und ihren thematischen Inhalten zurück.
Daneben hat sich die ISKO speziell der Frage nach der Organisation des in den Dokumenten
enthaltenen Wissens durch Klassifikation, Kategorienbildung und Thesaurierung gewidmet.
Dieser, durch die Möglichkeiten des Volltextretrievals zeitweilig etwas in den
Hintergrund geratene Erfahrungsschatz, erfährt durch die neuen semantischen Thesauri eine
ungeahnte Renaissance. Dabei ist der allgemeinen Aufmerksamkeit entgangen, daß die
sichaus der Semiotik ableitende Entsprechung des semantischen Thesaurus, die des
pragmatischen Thesaurus völlig unbeachtet blieb. Eingehende Überlegungen zu dieser
Thematik zeigen, daß es sich bei den semantischen Thesauri eigentlich um semiotische
Thesauri handelt, die beiden Aspekten, dem semantischen und dem pragmatischen, gerecht
werden müssen. Thesauri sind in diesem Sinne die semiotische Schnittstelle zwischen den
semantischen Objektbezeichnungen des Senders und der pragmatischen Begriffsbestimmung
dieser Zeichen durch den Empfänger einer Nachricht. Es soll nun geprüft werden, ob und
wieweit über die SGML- bzw. XML-Philosophie und ihre Funktion einer Metasprache,
Computern eine gewisse Begrifflichkeit vermittelbar ist. |
Humboldt-Universität
zu Berlin Dorotheenstr. 26 15345 Altlandsberg Buchholzerstr. 16
10099 Berlin Germany
030 2093 4236
priv.: 033438 67318
Fa: 033438 67320 |
h0228kdm@rz.hu-berlin.de |
35a |
van der Vet, Paul |
Plenarvortrag: Content Engineering -
computing beyond the upper OSI layer |
|
Abstract:
The rapid proliferation of computer networks offers uniquepossibilities for
researchers to exchange information, and equallyunique challenges for the people who have
to realise thesepossibilities. I will summarise (some will say: caricaturise) theprocess
of obtaining information as a four-stage process: (a) knowingwhat you want, (b) finding
the location of the wanted information, (c)obtaining the information itself, and (d)
processing the information toa form useful for further purposes, inclusing quality
assessment. Theclassical field of information retrieval has almost exclusivelyconcentrated
on (b), while Internet has mainly facilitated (c).
I will argue that a new generation of computer tools will facilitateall subprocesses save
(a), and perhaps even (a). Key features of thesetools are: they possess built-in awareness
of scientific content, andthey will fuzzify the boundaries between the subprocesses. I
willillustrate these ideas by giving examples from my own work and that ofcolleagues. Key
concepts are ontologies (the computer-age successors ofthesauri and classification
systems), domain-informed natural-languageprocessing, virtual reality, and integration
techniques. At the sametime, it must be noted that the availability of the needed
resourcesdoes not keep pace with the other developments. This in part is aproblem of
funding. I will argue that the development of resourcesshould be considered in the same
vein as other infrastructuralmeasures, like the purchase of expensive equiment in the
naturalsciences. |
Dept. of
Computer Science, University of Twente
P.O. Box 217, 7500 AE Enschede, the NetherlandsTel +31 53 489
3694
Fax +31 53 489 3503 |
vet@cs.utwente.nl |
37. |
Wasserfuhr, Rainer /
Schubert, Yvonne |
aware-net.de: Dynamische terminologische Raeume für
biographiebegleitendes persönliches und kooperatives Wissensmanagement |
30 |
Abstract:
Der Uebergang von einer papierbasierten Informationskultur hat in der ersten Stufe die
bisher dokumentzentrierten Wissenstechniken meist lediglich im elektronischen Medium
abgebildet, ohne die Potentiale von effizientem Retrieval, dynamischer terminologischer
Klassifikation, Data Mining oder Entscheidungsunterstuetzung fuer das lebenslange
persoenliche Wissensmanagement fruchtbar gemacht zu haben. Wir wollen mit aware-net.de
einen Ansatz vorstellen, der die von den etablierten Wissenstechniken her bekannten
Metaphern des Tagebuchs und der Enzyklopaedie aufgreift, doch den Benutzer darueber hinaus
motiviert, sein persoenliches Wissen in medienadaequateren Formen zu repraesentieren.
In einem elektronischen Tagebuch mit Hypertextfunktionalitaet
wird die Zettelkastenidee Niklas Luhmanns aufgegriffen und dem Nutzer die Moeglichkeit
gegeben, mehrschichtige Themenfaeden zu verwalten, in denen sich unterschiedliche
semantische Zusammengehoerigkeiten von Textknoten abgebilden lassen. Durch Klassifikation
von Knoten zu Objekten in einer individuellen Klassifikationsstruktur und deren
Anreicherung mit expliziten Attributen kann sukzessive ein individuelles
objektorientiertes Modell erstellt werden. Es erlaubt beispielsweise die Klassifikation
eines Knotens als "Telefonat" mit den Attributen "Telefonnummer",
"Gespraechspartner" und "Thema", wobei der Gespraechspartner und das
Thema wiederum Objekte sein koennen. Ferner koennen Textknoten ueber explizite
Wort-markups verschlagwortet werden. Die Resultate der Verschlagwortung und der
Bezeichnungen fuer Klassifikatoren werden als Eintraege in einer individuell erweiterbaren
Enzyklopaedie verwaltet. Durch die Kombination von Nutzungshistorie, Filtern und
statischer Auswertung der Nutzungshaeufigkeit von Objekten und Enzyklopaedieeintraegen
entwickelt sich die Enzyklopaedie nach kurzer Nutzungszeit zu einem hochstrukturierten
individuellen Wissensraum, der sich dynamisch an das Verhalten des Nutzers anpasst.
Ueber Schnittstellen zu einem redaktionell betreuten Onlinedienst koennen die
individuellen Wissensraeume in unterschiedlichen themenspezifischen communities mit denen
anderer Nutzer synchronisiert werden. Die inhaltlichen Schwerpunkte von aware-net liegen
derzeit in den Bereichen Neue Medien, Philosophie, Soziologie, Sprachwissenschaften und
Informatik. |
Rainer
Wasserfuhr
Kamenzer Str. 13B
01099 DresdenTel. 0351-8013386
Yvonne Schubert
Boettgerstr. 4
01129 Dresden
0351-8483459
|
wasserfuhr@gmx.de
aware@gmx.de yvonne.schubert@gmx.de |
38. |
Wawra, Dr. Steffen |
entfällt |
|
|
Akademiebibliothek
Berlin-Brandenburgische Akademie der Wissenschaften
Unter den Linden 8
10117 Berlin
Phone: (030) 20370 487
Fa: (030) 2082 367 |
wawra@bbaw.de |
39. |
Wette-Roch, Dr.
Elisabeth |
Pragmatische Aspekte der
Wissensmodellierung in wissenschaftlichen Informationssystemen |
30 |
Abstract:
Forschungsaktivitäten in den wissenschaftlichen Disziplinen stützen sich seit jeher auf
einen Dialog beteiligter Wissenschaftler zum Austausch ihrer Ideen und Resultate.
Globalisierung stellt dabei die Aufgabe, Ergebnisse weltweit verfügbar zu machen und
umgekehrt einschlägige Resultate anderer Personen zur Kenntnis zu nehmen. Ein zentrales
Problem ist hierbei der direkte Zugang zu den jeweils forschungsrelevanten Inhalten. Jede
Wissenschaft verfügt über eine eigene Fachterminologie mit normierten Bezeichnungen für
ihre Begriffe und Methoden. Im Unterschied zur natürlichen Sprache ist die Bedeutung
solcher Fachtermini durch Definitionen explizit festgelegt, woraus ein Netz rein
begrifflicher Abhängigkeiten resultiert, die zumeist in 'Ontologien' oder Thesauren
repräsentiert werden. Mit unserem Ansatz vertreten wir vor dem theoretischen Hintergrund
eines pragmatischen Wissensverständnisses die These, daß dieses semantische Modell für
die Darstellung einer wissenschaftlichen Dokumentation nicht ausreicht. Vielmehr zeichnen
sich Forschungsfragen gerade dadurch aus, daß sie über rein definitorische
Zusammenhänge hinausgreifen. Aus dieser Sichtweise ergeben sich Implikationen für eine
adäquate Repräsentation wissenschaftlicher Publikationen. Ausgehend hiervon entwickeln
wir eine Repräsentationsform für Forschungsthemen, die neben den (statischen)
Wissensbeständen eines Thesaurus auch die pragmatische Dimension von Interessen erfaßt.
Dies geschieht mittels einer Reduktion der sprachlichen Beschreibung solcher Themen durch
Nominalphrasen auf abstrakte assoziative Strukturen. Am Beispiel des Informationssystems
LIS im Gebiet der mathematischen Logik skizzieren wir ein Modell für das Retrieval
derartiger Strukturformen als Anwendung unseres Ansatzes. |
Forschungsstelle
Mathematische Logik der Universität Kaiserslautern Heidelberger Akademie der
Wissenschaften Fachbereich Informatik
Postfach 3049
67653 Kaiserslautern Germany
Tel: +49+631+205+3364 (d.)
Tel: +49+6201+509346 (p..)
Fa: +49+631+205+3357
|
wette@informatik.uni-kl.de |
|
|
|
|
_____________________________________________________________________________________ |
|
|
Peter Ohly 03.07.2000
|