ºÝºÝߣshows by User: MagnusPfeffer / http://www.slideshare.net/images/logo.gif ºÝºÝߣshows by User: MagnusPfeffer / Tue, 05 Apr 2016 10:04:08 GMT ºÝºÝߣShare feed for ºÝºÝߣshows by User: MagnusPfeffer Open Source Software zur Verarbeitung und Analyse von Metadatenmanagement https://de.slideshare.net/MagnusPfeffer/open-source-software-zur-verarbeitung-und-analyse-von-metadatenmanagement pfefferopensourcemetadatenmanagement-160405100408
Vortrag auf dem 6. Bibliothekskongress in Leipzig am 16.03.2016.]]>

Vortrag auf dem 6. Bibliothekskongress in Leipzig am 16.03.2016.]]>
Tue, 05 Apr 2016 10:04:08 GMT https://de.slideshare.net/MagnusPfeffer/open-source-software-zur-verarbeitung-und-analyse-von-metadatenmanagement MagnusPfeffer@slideshare.net(MagnusPfeffer) Open Source Software zur Verarbeitung und Analyse von Metadatenmanagement MagnusPfeffer Vortrag auf dem 6. Bibliothekskongress in Leipzig am 16.03.2016. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/pfefferopensourcemetadatenmanagement-160405100408-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag auf dem 6. Bibliothekskongress in Leipzig am 16.03.2016.
from Magnus Pfeffer
]]>
1567 10 https://cdn.slidesharecdn.com/ss_thumbnails/pfefferopensourcemetadatenmanagement-160405100408-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Linked Data in der Lehre https://de.slideshare.net/slideshow/linked-data-in-der-lehre/46449010 keynotekim-dini-150330083523-conversion-gate01
Keynote at the KIM-DINI workshop on 30.03.2015. See http://dini.de/veranstaltungen/workshops/kim2015/ for details. The talk focussed on current issues of integrating IT competences and ideas in the library and information science curriculum at Stuttgart Media University.]]>

Keynote at the KIM-DINI workshop on 30.03.2015. See http://dini.de/veranstaltungen/workshops/kim2015/ for details. The talk focussed on current issues of integrating IT competences and ideas in the library and information science curriculum at Stuttgart Media University.]]>
Mon, 30 Mar 2015 08:35:23 GMT https://de.slideshare.net/slideshow/linked-data-in-der-lehre/46449010 MagnusPfeffer@slideshare.net(MagnusPfeffer) Linked Data in der Lehre MagnusPfeffer Keynote at the KIM-DINI workshop on 30.03.2015. See http://dini.de/veranstaltungen/workshops/kim2015/ for details. The talk focussed on current issues of integrating IT competences and ideas in the library and information science curriculum at Stuttgart Media University. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/keynotekim-dini-150330083523-conversion-gate01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Keynote at the KIM-DINI workshop on 30.03.2015. See http://dini.de/veranstaltungen/workshops/kim2015/ for details. The talk focussed on current issues of integrating IT competences and ideas in the library and information science curriculum at Stuttgart Media University.
from Magnus Pfeffer
]]>
1324 13 https://cdn.slidesharecdn.com/ss_thumbnails/keynotekim-dini-150330083523-conversion-gate01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Cloud Computing für die Verarbeitung von Metadaten https://de.slideshare.net/slideshow/cloud-computing-fr-die-verarbeitung-von-metadaten/42438493 cloudcomputingfrdieverarbeitungvonmetadaten-141207060217-conversion-gate01
Presentation given at the BI Symposium on December 5th, 2014.]]>

Presentation given at the BI Symposium on December 5th, 2014.]]>
Sun, 07 Dec 2014 06:02:17 GMT https://de.slideshare.net/slideshow/cloud-computing-fr-die-verarbeitung-von-metadaten/42438493 MagnusPfeffer@slideshare.net(MagnusPfeffer) Cloud Computing für die Verarbeitung von Metadaten MagnusPfeffer Presentation given at the BI Symposium on December 5th, 2014. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/cloudcomputingfrdieverarbeitungvonmetadaten-141207060217-conversion-gate01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Presentation given at the BI Symposium on December 5th, 2014.
from Magnus Pfeffer
]]>
1201 7 https://cdn.slidesharecdn.com/ss_thumbnails/cloudcomputingfrdieverarbeitungvonmetadaten-141207060217-conversion-gate01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Metadata Provenance Tutorial Part 2: Interoperable Metadata Provenance /slideshow/metadata-provenance-tutorial-part-2-modelling-provenance-in-rdf/28631462 metadata-provenance-2-131126044254-phpapp01
Tutorial held at the Semantic Web in Libraries conference in Hamburg, Germany, at November 25th 2013. The tutorial was held together with Kai Eckert, who did Part 1. Abstract: When metadata is distributed, combined, and enriched as Linked Data, the tracking of its provenance becomes a hard issue. Using data encumbered with licenses that require attribution of authorship may eventually become impracticable as more and more data sets are aggregated - one of the main motivations for the call to open data under permissive licenses like CC0. Nonetheless, there are important scenarios where keeping track of provenance information becomes a necessity. A typical example is the enrichment of existing data with automatically obtained data, for instance as a result of automatic indexing. Ideally, the origins, conditions, rules and other means of production of every statement are known and can be used to put it into the right context. Part 1 - Metadata Provenance in RDF: In RDF, the mere representation of provenance - i.e., statements about statements - is challenging. We explore the possibilities, from the unloved reification and other proposed alternative Linked Data practices through to named graphs and recent developments regarding the upcoming next version of RDF. Part 2 - Interoperable Metadata Provenance: As with metadata itself, common vocabularies and data models are needed to express basic provenance information in an interoperable fashion. We investigate the PROV model that is currently developed by the W3C Provenance Working Group and compare it to Dublin Core as a representative of a flat, descriptive metadata schema. We actively encourage participants to present their own use cases and open challenges at this workshop. Please contact the organizers for details. Prior experience: The workshop is intended for participants who have mastered the basics of linked data and want to delve into expressing provenance. Beside a basic understanding of RDF, the linked data principles and the use of ontologies (like Dublin Core or Bibo) to express bibliographic metadata no specialised knowledge is required.]]>

Tutorial held at the Semantic Web in Libraries conference in Hamburg, Germany, at November 25th 2013. The tutorial was held together with Kai Eckert, who did Part 1. Abstract: When metadata is distributed, combined, and enriched as Linked Data, the tracking of its provenance becomes a hard issue. Using data encumbered with licenses that require attribution of authorship may eventually become impracticable as more and more data sets are aggregated - one of the main motivations for the call to open data under permissive licenses like CC0. Nonetheless, there are important scenarios where keeping track of provenance information becomes a necessity. A typical example is the enrichment of existing data with automatically obtained data, for instance as a result of automatic indexing. Ideally, the origins, conditions, rules and other means of production of every statement are known and can be used to put it into the right context. Part 1 - Metadata Provenance in RDF: In RDF, the mere representation of provenance - i.e., statements about statements - is challenging. We explore the possibilities, from the unloved reification and other proposed alternative Linked Data practices through to named graphs and recent developments regarding the upcoming next version of RDF. Part 2 - Interoperable Metadata Provenance: As with metadata itself, common vocabularies and data models are needed to express basic provenance information in an interoperable fashion. We investigate the PROV model that is currently developed by the W3C Provenance Working Group and compare it to Dublin Core as a representative of a flat, descriptive metadata schema. We actively encourage participants to present their own use cases and open challenges at this workshop. Please contact the organizers for details. Prior experience: The workshop is intended for participants who have mastered the basics of linked data and want to delve into expressing provenance. Beside a basic understanding of RDF, the linked data principles and the use of ontologies (like Dublin Core or Bibo) to express bibliographic metadata no specialised knowledge is required.]]>
Tue, 26 Nov 2013 04:42:54 GMT /slideshow/metadata-provenance-tutorial-part-2-modelling-provenance-in-rdf/28631462 MagnusPfeffer@slideshare.net(MagnusPfeffer) Metadata Provenance Tutorial Part 2: Interoperable Metadata Provenance MagnusPfeffer Tutorial held at the Semantic Web in Libraries conference in Hamburg, Germany, at November 25th 2013. The tutorial was held together with Kai Eckert, who did Part 1. Abstract: When metadata is distributed, combined, and enriched as Linked Data, the tracking of its provenance becomes a hard issue. Using data encumbered with licenses that require attribution of authorship may eventually become impracticable as more and more data sets are aggregated - one of the main motivations for the call to open data under permissive licenses like CC0. Nonetheless, there are important scenarios where keeping track of provenance information becomes a necessity. A typical example is the enrichment of existing data with automatically obtained data, for instance as a result of automatic indexing. Ideally, the origins, conditions, rules and other means of production of every statement are known and can be used to put it into the right context. Part 1 - Metadata Provenance in RDF: In RDF, the mere representation of provenance - i.e., statements about statements - is challenging. We explore the possibilities, from the unloved reification and other proposed alternative Linked Data practices through to named graphs and recent developments regarding the upcoming next version of RDF. Part 2 - Interoperable Metadata Provenance: As with metadata itself, common vocabularies and data models are needed to express basic provenance information in an interoperable fashion. We investigate the PROV model that is currently developed by the W3C Provenance Working Group and compare it to Dublin Core as a representative of a flat, descriptive metadata schema. We actively encourage participants to present their own use cases and open challenges at this workshop. Please contact the organizers for details. Prior experience: The workshop is intended for participants who have mastered the basics of linked data and want to delve into expressing provenance. Beside a basic understanding of RDF, the linked data principles and the use of ontologies (like Dublin Core or Bibo) to express bibliographic metadata no specialised knowledge is required. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/metadata-provenance-2-131126044254-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Tutorial held at the Semantic Web in Libraries conference in Hamburg, Germany, at November 25th 2013. The tutorial was held together with Kai Eckert, who did Part 1. Abstract: When metadata is distributed, combined, and enriched as Linked Data, the tracking of its provenance becomes a hard issue. Using data encumbered with licenses that require attribution of authorship may eventually become impracticable as more and more data sets are aggregated - one of the main motivations for the call to open data under permissive licenses like CC0. Nonetheless, there are important scenarios where keeping track of provenance information becomes a necessity. A typical example is the enrichment of existing data with automatically obtained data, for instance as a result of automatic indexing. Ideally, the origins, conditions, rules and other means of production of every statement are known and can be used to put it into the right context. Part 1 - Metadata Provenance in RDF: In RDF, the mere representation of provenance - i.e., statements about statements - is challenging. We explore the possibilities, from the unloved reification and other proposed alternative Linked Data practices through to named graphs and recent developments regarding the upcoming next version of RDF. Part 2 - Interoperable Metadata Provenance: As with metadata itself, common vocabularies and data models are needed to express basic provenance information in an interoperable fashion. We investigate the PROV model that is currently developed by the W3C Provenance Working Group and compare it to Dublin Core as a representative of a flat, descriptive metadata schema. We actively encourage participants to present their own use cases and open challenges at this workshop. Please contact the organizers for details. Prior experience: The workshop is intended for participants who have mastered the basics of linked data and want to delve into expressing provenance. Beside a basic understanding of RDF, the linked data principles and the use of ontologies (like Dublin Core or Bibo) to express bibliographic metadata no specialised knowledge is required.
Metadata Provenance Tutorial Part 2: Interoperable Metadata Provenance from Magnus Pfeffer
]]>
1610 8 https://cdn.slidesharecdn.com/ss_thumbnails/metadata-provenance-2-131126044254-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Automatic creation of mappings between classification systems for bibliographic data /slideshow/pfeffer-automatic-mapping-28630898/28630898 pfefferautomaticmapping-131126042417-phpapp01
Classification systems are an important means to provide topic-based access to large collections. Most library collections, however, are often only partially classified and use local or regional classification systems. Traditionally, manually created mappings between classification systems are used to improve this situation. I propose a different approach to automatically create such mappings: To achieve a large base for the mapping algorithm, bibliographic data from diverse sources that contain items classified by the classification systems is aggregated in a single database. Next, a clustering algorithm is used in order to group individual issues and editions of the same work. The basic idea is that for classification purposes, there is no significant difference across editions. Indexing information can thus be consolidated within the clusters, resulting in a higher proportion of dual-indexed entries. The novel step is that instead of individual catalogue entries, the "work-level" clusters are used for an instance-based matching: Statistical analysis creates a co-occurrence table of pairs of classes and high co-occurance of a given pair indicating a match between the two classification systems. This information is aggregated into a complete mapping The approach is implemented on an open-source infrastructure which was mainly developed by the German National Library: CultureGraph.org. In ongoing projects, mappings between several classification systems are being produced. The talk will discuss the approach, the implementation issues and the preliminary results as well as the challenges of publishing the created mappings as linked data.]]>

Classification systems are an important means to provide topic-based access to large collections. Most library collections, however, are often only partially classified and use local or regional classification systems. Traditionally, manually created mappings between classification systems are used to improve this situation. I propose a different approach to automatically create such mappings: To achieve a large base for the mapping algorithm, bibliographic data from diverse sources that contain items classified by the classification systems is aggregated in a single database. Next, a clustering algorithm is used in order to group individual issues and editions of the same work. The basic idea is that for classification purposes, there is no significant difference across editions. Indexing information can thus be consolidated within the clusters, resulting in a higher proportion of dual-indexed entries. The novel step is that instead of individual catalogue entries, the "work-level" clusters are used for an instance-based matching: Statistical analysis creates a co-occurrence table of pairs of classes and high co-occurance of a given pair indicating a match between the two classification systems. This information is aggregated into a complete mapping The approach is implemented on an open-source infrastructure which was mainly developed by the German National Library: CultureGraph.org. In ongoing projects, mappings between several classification systems are being produced. The talk will discuss the approach, the implementation issues and the preliminary results as well as the challenges of publishing the created mappings as linked data.]]>
Tue, 26 Nov 2013 04:24:17 GMT /slideshow/pfeffer-automatic-mapping-28630898/28630898 MagnusPfeffer@slideshare.net(MagnusPfeffer) Automatic creation of mappings between classification systems for bibliographic data MagnusPfeffer Classification systems are an important means to provide topic-based access to large collections. Most library collections, however, are often only partially classified and use local or regional classification systems. Traditionally, manually created mappings between classification systems are used to improve this situation. I propose a different approach to automatically create such mappings: To achieve a large base for the mapping algorithm, bibliographic data from diverse sources that contain items classified by the classification systems is aggregated in a single database. Next, a clustering algorithm is used in order to group individual issues and editions of the same work. The basic idea is that for classification purposes, there is no significant difference across editions. Indexing information can thus be consolidated within the clusters, resulting in a higher proportion of dual-indexed entries. The novel step is that instead of individual catalogue entries, the "work-level" clusters are used for an instance-based matching: Statistical analysis creates a co-occurrence table of pairs of classes and high co-occurance of a given pair indicating a match between the two classification systems. This information is aggregated into a complete mapping The approach is implemented on an open-source infrastructure which was mainly developed by the German National Library: CultureGraph.org. In ongoing projects, mappings between several classification systems are being produced. The talk will discuss the approach, the implementation issues and the preliminary results as well as the challenges of publishing the created mappings as linked data. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/pfefferautomaticmapping-131126042417-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Classification systems are an important means to provide topic-based access to large collections. Most library collections, however, are often only partially classified and use local or regional classification systems. Traditionally, manually created mappings between classification systems are used to improve this situation. I propose a different approach to automatically create such mappings: To achieve a large base for the mapping algorithm, bibliographic data from diverse sources that contain items classified by the classification systems is aggregated in a single database. Next, a clustering algorithm is used in order to group individual issues and editions of the same work. The basic idea is that for classification purposes, there is no significant difference across editions. Indexing information can thus be consolidated within the clusters, resulting in a higher proportion of dual-indexed entries. The novel step is that instead of individual catalogue entries, the &quot;work-level&quot; clusters are used for an instance-based matching: Statistical analysis creates a co-occurrence table of pairs of classes and high co-occurance of a given pair indicating a match between the two classification systems. This information is aggregated into a complete mapping The approach is implemented on an open-source infrastructure which was mainly developed by the German National Library: CultureGraph.org. In ongoing projects, mappings between several classification systems are being produced. The talk will discuss the approach, the implementation issues and the preliminary results as well as the challenges of publishing the created mappings as linked data.
Automatic creation of mappings between classification systems for bibliographic data from Magnus Pfeffer
]]>
1205 4 https://cdn.slidesharecdn.com/ss_thumbnails/pfefferautomaticmapping-131126042417-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Automatic creation of mappings between classification systems /MagnusPfeffer/pfeffer-automatic-mapping pfefferautomaticmapping-130710030551-phpapp01
Presentation given at the European Conference on Data Analysis 2013 in Luxemburg on July 10th, 2013.]]>

Presentation given at the European Conference on Data Analysis 2013 in Luxemburg on July 10th, 2013.]]>
Wed, 10 Jul 2013 03:05:51 GMT /MagnusPfeffer/pfeffer-automatic-mapping MagnusPfeffer@slideshare.net(MagnusPfeffer) Automatic creation of mappings between classification systems MagnusPfeffer Presentation given at the European Conference on Data Analysis 2013 in Luxemburg on July 10th, 2013. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/pfefferautomaticmapping-130710030551-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Presentation given at the European Conference on Data Analysis 2013 in Luxemburg on July 10th, 2013.
Automatic creation of mappings between classification systems from Magnus Pfeffer
]]>
1547 5 https://cdn.slidesharecdn.com/ss_thumbnails/pfefferautomaticmapping-130710030551-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation °Â±ð¾±ÃŸ http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Resource Discovery - Sacherschließung am Ende? https://de.slideshare.net/slideshow/2013-vd-b-braunschweig-sacherschliessung-am-ende/18671778 2013vdbbraunschweig-sacherschliessungamende-130412051506-phpapp01
Mein Vortrag auf der VDB-Fortbildung Erziehungswissenschaft / Pädagogik 11./12. April 2013 in Braunschweig]]>

Mein Vortrag auf der VDB-Fortbildung Erziehungswissenschaft / Pädagogik 11./12. April 2013 in Braunschweig]]>
Fri, 12 Apr 2013 05:15:06 GMT https://de.slideshare.net/slideshow/2013-vd-b-braunschweig-sacherschliessung-am-ende/18671778 MagnusPfeffer@slideshare.net(MagnusPfeffer) Resource Discovery - Sacherschließung am Ende? MagnusPfeffer Mein Vortrag auf der VDB-Fortbildung Erziehungswissenschaft / Pädagogik 11./12. April 2013 in Braunschweig <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2013vdbbraunschweig-sacherschliessungamende-130412051506-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Mein Vortrag auf der VDB-Fortbildung Erziehungswissenschaft / Pädagogik 11./12. April 2013 in Braunschweig
from Magnus Pfeffer
]]>
2999 20 https://cdn.slidesharecdn.com/ss_thumbnails/2013vdbbraunschweig-sacherschliessungamende-130412051506-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation °Â±ð¾±ÃŸ http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Automatisches Generieren von Konkordanzen https://de.slideshare.net/slideshow/automatisches-generieren-von-konkordanzen/17293597 pfefferautomatischesgenerierenvonkonkordanzen-130317170533-phpapp01
Vortrag im Rahmen des Workshops "Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten" auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig.]]>

Vortrag im Rahmen des Workshops "Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten" auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig.]]>
Sun, 17 Mar 2013 17:05:33 GMT https://de.slideshare.net/slideshow/automatisches-generieren-von-konkordanzen/17293597 MagnusPfeffer@slideshare.net(MagnusPfeffer) Automatisches Generieren von Konkordanzen MagnusPfeffer Vortrag im Rahmen des Workshops "Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten" auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/pfefferautomatischesgenerierenvonkonkordanzen-130317170533-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag im Rahmen des Workshops &quot;Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten&quot; auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig.
from Magnus Pfeffer
]]>
1192 5 https://cdn.slidesharecdn.com/ss_thumbnails/pfefferautomatischesgenerierenvonkonkordanzen-130317170533-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation °Â±ð¾±ÃŸ http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Clustering auf Werksebene https://de.slideshare.net/MagnusPfeffer/pfeffer-clustering pfefferclustering-130317170105-phpapp02
Vortrag im Rahmen des Workshops "Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten" auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig.]]>

Vortrag im Rahmen des Workshops "Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten" auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig.]]>
Sun, 17 Mar 2013 17:01:05 GMT https://de.slideshare.net/MagnusPfeffer/pfeffer-clustering MagnusPfeffer@slideshare.net(MagnusPfeffer) Clustering auf Werksebene MagnusPfeffer Vortrag im Rahmen des Workshops "Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten" auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/pfefferclustering-130317170105-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag im Rahmen des Workshops &quot;Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten&quot; auf dem 5. Kongress Bibliothek und Information Deutschland vom 11. bis 14. März 2013 in Leipzig.
from Magnus Pfeffer
]]>
1754 5 https://cdn.slidesharecdn.com/ss_thumbnails/pfefferclustering-130317170105-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation °Â±ð¾±ÃŸ http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Resource Discovery: Herausforderung und Chance für die Sacherschließung https://de.slideshare.net/slideshow/resource-discovery-herausforderung-und-chance-fr-die-sacherschlieung/15117494 2012ajbdv2-121110141632-phpapp02
Vortrag im Rahmen der Fortbildungsveranstaltung „Erschließung, Kataloganreicherung und Präsentation juristischer Materialien", Berlin - 08. und 09. November 2012. Organisiert von der Arbeitsgemeinschaft für juristisches Bibliotheks- und Dokumentationswesen (AjBD).]]>

Vortrag im Rahmen der Fortbildungsveranstaltung „Erschließung, Kataloganreicherung und Präsentation juristischer Materialien", Berlin - 08. und 09. November 2012. Organisiert von der Arbeitsgemeinschaft für juristisches Bibliotheks- und Dokumentationswesen (AjBD).]]>
Sat, 10 Nov 2012 14:16:30 GMT https://de.slideshare.net/slideshow/resource-discovery-herausforderung-und-chance-fr-die-sacherschlieung/15117494 MagnusPfeffer@slideshare.net(MagnusPfeffer) Resource Discovery: Herausforderung und Chance für die Sacherschließung MagnusPfeffer Vortrag im Rahmen der Fortbildungsveranstaltung „Erschließung, Kataloganreicherung und Präsentation juristischer Materialien", Berlin - 08. und 09. November 2012. Organisiert von der Arbeitsgemeinschaft für juristisches Bibliotheks- und Dokumentationswesen (AjBD). <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2012ajbdv2-121110141632-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag im Rahmen der Fortbildungsveranstaltung „Erschließung, Kataloganreicherung und Präsentation juristischer Materialien&quot;, Berlin - 08. und 09. November 2012. Organisiert von der Arbeitsgemeinschaft für juristisches Bibliotheks- und Dokumentationswesen (AjBD).
from Magnus Pfeffer
]]>
4024 51 https://cdn.slidesharecdn.com/ss_thumbnails/2012ajbdv2-121110141632-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation °Â±ð¾±ÃŸ http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Abgleich von Titeldaten zur Übernahme von Sacherschließungsinformationen über Verbundgrenzen https://de.slideshare.net/MagnusPfeffer/2012-gfkl 2012gfkl-120801120020-phpapp02
Vortrag im Workshop on Classification and Subject Indexing in Library and Information Science (LIS'2012) im Rahmen der Jahrestagung der Deutschen Gesellschaft für Klassifikation vom 1. bis 3. August 2012 in Hildesheim.]]>

Vortrag im Workshop on Classification and Subject Indexing in Library and Information Science (LIS'2012) im Rahmen der Jahrestagung der Deutschen Gesellschaft für Klassifikation vom 1. bis 3. August 2012 in Hildesheim.]]>
Wed, 01 Aug 2012 12:00:19 GMT https://de.slideshare.net/MagnusPfeffer/2012-gfkl MagnusPfeffer@slideshare.net(MagnusPfeffer) Abgleich von Titeldaten zur Übernahme von Sacherschließungsinformationen über Verbundgrenzen MagnusPfeffer Vortrag im Workshop on Classification and Subject Indexing in Library and Information Science (LIS'2012) im Rahmen der Jahrestagung der Deutschen Gesellschaft für Klassifikation vom 1. bis 3. August 2012 in Hildesheim. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2012gfkl-120801120020-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag im Workshop on Classification and Subject Indexing in Library and Information Science (LIS&#39;2012) im Rahmen der Jahrestagung der Deutschen Gesellschaft für Klassifikation vom 1. bis 3. August 2012 in Hildesheim.
from Magnus Pfeffer
]]>
1649 15 https://cdn.slidesharecdn.com/ss_thumbnails/2012gfkl-120801120020-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Jetzt kommt zusammen, was zusammen gehört https://de.slideshare.net/slideshow/2012-bibliothekartag-datenkonsolidierung-13079994/13079994 2012bibliothekartagdatenkonsolidierung-120525171021-phpapp01
Verbundübergreifende Datenkonsolidierung und wie man damit große Bestände effizient retroklassifiziert. Vortrag vom 22. Mai 2012 auf dem 101. Bibliothekartag in Hamburg.]]>

Verbundübergreifende Datenkonsolidierung und wie man damit große Bestände effizient retroklassifiziert. Vortrag vom 22. Mai 2012 auf dem 101. Bibliothekartag in Hamburg.]]>
Fri, 25 May 2012 17:10:20 GMT https://de.slideshare.net/slideshow/2012-bibliothekartag-datenkonsolidierung-13079994/13079994 MagnusPfeffer@slideshare.net(MagnusPfeffer) Jetzt kommt zusammen, was zusammen gehört MagnusPfeffer Verbundübergreifende Datenkonsolidierung und wie man damit große Bestände effizient retroklassifiziert. Vortrag vom 22. Mai 2012 auf dem 101. Bibliothekartag in Hamburg. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2012bibliothekartagdatenkonsolidierung-120525171021-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Verbundübergreifende Datenkonsolidierung und wie man damit große Bestände effizient retroklassifiziert. Vortrag vom 22. Mai 2012 auf dem 101. Bibliothekartag in Hamburg.
from Magnus Pfeffer
]]>
2332 401 https://cdn.slidesharecdn.com/ss_thumbnails/2012bibliothekartagdatenkonsolidierung-120525171021-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Bibliotheken und Linked Open Data Extended https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data-extended/12717096 2012vdbmainzlinkeddataextended-120427092655-phpapp01
Vortrag bei der Jahresversammlung des Regionalverbands Südwest des Vereins Deutscher Bibliothekare (VdB) am 27. April 2012 in Mainz ]]>

Vortrag bei der Jahresversammlung des Regionalverbands Südwest des Vereins Deutscher Bibliothekare (VdB) am 27. April 2012 in Mainz ]]>
Fri, 27 Apr 2012 09:26:53 GMT https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data-extended/12717096 MagnusPfeffer@slideshare.net(MagnusPfeffer) Bibliotheken und Linked Open Data Extended MagnusPfeffer Vortrag bei der Jahresversammlung des Regionalverbands Südwest des Vereins Deutscher Bibliothekare (VdB) am 27. April 2012 in Mainz <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2012vdbmainzlinkeddataextended-120427092655-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag bei der Jahresversammlung des Regionalverbands Südwest des Vereins Deutscher Bibliothekare (VdB) am 27. April 2012 in Mainz
from Magnus Pfeffer
]]>
1216 22 https://cdn.slidesharecdn.com/ss_thumbnails/2012vdbmainzlinkeddataextended-120427092655-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Bibliotheken und Linked Open Data Reduced https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data-12608574/12608574 2012mpgheidelberglinkeddatav2-120419160420-phpapp02
Vortrag auf der XXXV. Bibliothekstagung der Max-Planck-Gesellschaft am 17. April 2012 in Heidelberg.]]>

Vortrag auf der XXXV. Bibliothekstagung der Max-Planck-Gesellschaft am 17. April 2012 in Heidelberg.]]>
Thu, 19 Apr 2012 16:04:19 GMT https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data-12608574/12608574 MagnusPfeffer@slideshare.net(MagnusPfeffer) Bibliotheken und Linked Open Data Reduced MagnusPfeffer Vortrag auf der XXXV. Bibliothekstagung der Max-Planck-Gesellschaft am 17. April 2012 in Heidelberg. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2012mpgheidelberglinkeddatav2-120419160420-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag auf der XXXV. Bibliothekstagung der Max-Planck-Gesellschaft am 17. April 2012 in Heidelberg.
from Magnus Pfeffer
]]>
1065 43 https://cdn.slidesharecdn.com/ss_thumbnails/2012mpgheidelberglinkeddatav2-120419160420-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Bibliotheken und Linked Open Data https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data-10611512/10611512 vortragbasel-erweiterteversion-111216024732-phpapp01
Gemeinsamer Vortrag mit Kai Eckert. Gehalten am 14.12.2011 an der UB Basel auf Einladung der Konferenz Deutschschweizer Hochschulbibliotheken (KDH).]]>

Gemeinsamer Vortrag mit Kai Eckert. Gehalten am 14.12.2011 an der UB Basel auf Einladung der Konferenz Deutschschweizer Hochschulbibliotheken (KDH).]]>
Fri, 16 Dec 2011 02:47:29 GMT https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data-10611512/10611512 MagnusPfeffer@slideshare.net(MagnusPfeffer) Bibliotheken und Linked Open Data MagnusPfeffer Gemeinsamer Vortrag mit Kai Eckert. Gehalten am 14.12.2011 an der UB Basel auf Einladung der Konferenz Deutschschweizer Hochschulbibliotheken (KDH). <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/vortragbasel-erweiterteversion-111216024732-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Gemeinsamer Vortrag mit Kai Eckert. Gehalten am 14.12.2011 an der UB Basel auf Einladung der Konferenz Deutschschweizer Hochschulbibliotheken (KDH).
from Magnus Pfeffer
]]>
1268 5 https://cdn.slidesharecdn.com/ss_thumbnails/vortragbasel-erweiterteversion-111216024732-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Fallbasierte automatische Klassifikation nach der RVK - k-nearest neighbour auf bibliografischen Metadaten https://de.slideshare.net/slideshow/fallbasierte-automatische-klassifikation-nach-der-rvk-knearest-neighbour-auf-bibliografischen-metadaten/10383426 pfefferpetrus2011-111129075946-phpapp01
Vortrag auf Einladung der Deutschen Nationalbibliothek zum Workshop des "Petrus" Projekts zur automatischen Erschließung am 21. und 22.3.2011 in Frankfurt. ]]>

Vortrag auf Einladung der Deutschen Nationalbibliothek zum Workshop des "Petrus" Projekts zur automatischen Erschließung am 21. und 22.3.2011 in Frankfurt. ]]>
Tue, 29 Nov 2011 07:59:42 GMT https://de.slideshare.net/slideshow/fallbasierte-automatische-klassifikation-nach-der-rvk-knearest-neighbour-auf-bibliografischen-metadaten/10383426 MagnusPfeffer@slideshare.net(MagnusPfeffer) Fallbasierte automatische Klassifikation nach der RVK - k-nearest neighbour auf bibliografischen Metadaten MagnusPfeffer Vortrag auf Einladung der Deutschen Nationalbibliothek zum Workshop des "Petrus" Projekts zur automatischen Erschließung am 21. und 22.3.2011 in Frankfurt. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/pfefferpetrus2011-111129075946-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag auf Einladung der Deutschen Nationalbibliothek zum Workshop des &quot;Petrus&quot; Projekts zur automatischen Erschließung am 21. und 22.3.2011 in Frankfurt.
from Magnus Pfeffer
]]>
930 6 https://cdn.slidesharecdn.com/ss_thumbnails/pfefferpetrus2011-111129075946-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Ausleihdaten aus Bibliotheken als Linked Open Data publizieren und nutzen /slideshow/ausleihdaten-aus-bibliotheken-als-linked-open-data-publizieren-und-nutzen/10380012 2011swibbewegungsdaten-111129035855-phpapp02
Vortrag auf der SWIB11 Semantic Web in Bibliotheken Konferenz 28.11. bis 30.11.2011 in Hamburg. Abstract: In einem laufenden Projekt untersuche ich gemeinsam mit Kai Eckert von der UB Mannheim und Studierenden an der Hochschule der Medien mögliche Anwendungsfälle für Ausleihdaten aus Bibliothekssystemen als Linked Data. Use cases sind die Unterstützung im Retrieval und Resource Discovery. Ausleihen können zum einen als Qualitätssignal interpretiert werden und für das Ranking oder die Sortierung verwendet werden. Zum anderen entsteht durch das gemeinsame Ausleihen von Medien ein Indikator für die Zusammengehörigkeit dieser Medien, was für die Anzeige von interessanten Titeln verwendet werden kann. Die Herausforderung bei der Modellierung in RDF sind die verschiedenen denkbaren Granularitäten, in denen die Daten aufbereitet werden. So ist es möglich, jeden einzelnen Ausleihvorgang zu modellieren und zu beschreiben. Dabei würden nahezu alle Informationen erhalten bleiben, die im Bibliothekssystem erfasst wurden. Für die Anwendungsfälle wäre aber eine gröbere Abbildung, die die Daten auf Titelebene aggregiert, wünschenswert. Derzeit entstehen die Datenmodelle für die genannten Szenarien und eine beispielhafte Abbildung von Echtdaten aus dem Bibliothekssystem der UB Mannheim. Wir wollen die Modellierung und die Echtdaten im Laufe der nächsten Monate auf dem Linked Data Service der UB Mannheim bereitstellen.]]>

Vortrag auf der SWIB11 Semantic Web in Bibliotheken Konferenz 28.11. bis 30.11.2011 in Hamburg. Abstract: In einem laufenden Projekt untersuche ich gemeinsam mit Kai Eckert von der UB Mannheim und Studierenden an der Hochschule der Medien mögliche Anwendungsfälle für Ausleihdaten aus Bibliothekssystemen als Linked Data. Use cases sind die Unterstützung im Retrieval und Resource Discovery. Ausleihen können zum einen als Qualitätssignal interpretiert werden und für das Ranking oder die Sortierung verwendet werden. Zum anderen entsteht durch das gemeinsame Ausleihen von Medien ein Indikator für die Zusammengehörigkeit dieser Medien, was für die Anzeige von interessanten Titeln verwendet werden kann. Die Herausforderung bei der Modellierung in RDF sind die verschiedenen denkbaren Granularitäten, in denen die Daten aufbereitet werden. So ist es möglich, jeden einzelnen Ausleihvorgang zu modellieren und zu beschreiben. Dabei würden nahezu alle Informationen erhalten bleiben, die im Bibliothekssystem erfasst wurden. Für die Anwendungsfälle wäre aber eine gröbere Abbildung, die die Daten auf Titelebene aggregiert, wünschenswert. Derzeit entstehen die Datenmodelle für die genannten Szenarien und eine beispielhafte Abbildung von Echtdaten aus dem Bibliothekssystem der UB Mannheim. Wir wollen die Modellierung und die Echtdaten im Laufe der nächsten Monate auf dem Linked Data Service der UB Mannheim bereitstellen.]]>
Tue, 29 Nov 2011 03:58:54 GMT /slideshow/ausleihdaten-aus-bibliotheken-als-linked-open-data-publizieren-und-nutzen/10380012 MagnusPfeffer@slideshare.net(MagnusPfeffer) Ausleihdaten aus Bibliotheken als Linked Open Data publizieren und nutzen MagnusPfeffer Vortrag auf der SWIB11 Semantic Web in Bibliotheken Konferenz 28.11. bis 30.11.2011 in Hamburg. Abstract: In einem laufenden Projekt untersuche ich gemeinsam mit Kai Eckert von der UB Mannheim und Studierenden an der Hochschule der Medien mögliche Anwendungsfälle für Ausleihdaten aus Bibliothekssystemen als Linked Data. Use cases sind die Unterstützung im Retrieval und Resource Discovery. Ausleihen können zum einen als Qualitätssignal interpretiert werden und für das Ranking oder die Sortierung verwendet werden. Zum anderen entsteht durch das gemeinsame Ausleihen von Medien ein Indikator für die Zusammengehörigkeit dieser Medien, was für die Anzeige von interessanten Titeln verwendet werden kann. Die Herausforderung bei der Modellierung in RDF sind die verschiedenen denkbaren Granularitäten, in denen die Daten aufbereitet werden. So ist es möglich, jeden einzelnen Ausleihvorgang zu modellieren und zu beschreiben. Dabei würden nahezu alle Informationen erhalten bleiben, die im Bibliothekssystem erfasst wurden. Für die Anwendungsfälle wäre aber eine gröbere Abbildung, die die Daten auf Titelebene aggregiert, wünschenswert. Derzeit entstehen die Datenmodelle für die genannten Szenarien und eine beispielhafte Abbildung von Echtdaten aus dem Bibliothekssystem der UB Mannheim. Wir wollen die Modellierung und die Echtdaten im Laufe der nächsten Monate auf dem Linked Data Service der UB Mannheim bereitstellen. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2011swibbewegungsdaten-111129035855-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Vortrag auf der SWIB11 Semantic Web in Bibliotheken Konferenz 28.11. bis 30.11.2011 in Hamburg. Abstract: In einem laufenden Projekt untersuche ich gemeinsam mit Kai Eckert von der UB Mannheim und Studierenden an der Hochschule der Medien mögliche Anwendungsfälle für Ausleihdaten aus Bibliothekssystemen als Linked Data. Use cases sind die Unterstützung im Retrieval und Resource Discovery. Ausleihen können zum einen als Qualitätssignal interpretiert werden und für das Ranking oder die Sortierung verwendet werden. Zum anderen entsteht durch das gemeinsame Ausleihen von Medien ein Indikator für die Zusammengehörigkeit dieser Medien, was für die Anzeige von interessanten Titeln verwendet werden kann. Die Herausforderung bei der Modellierung in RDF sind die verschiedenen denkbaren Granularitäten, in denen die Daten aufbereitet werden. So ist es möglich, jeden einzelnen Ausleihvorgang zu modellieren und zu beschreiben. Dabei würden nahezu alle Informationen erhalten bleiben, die im Bibliothekssystem erfasst wurden. Für die Anwendungsfälle wäre aber eine gröbere Abbildung, die die Daten auf Titelebene aggregiert, wünschenswert. Derzeit entstehen die Datenmodelle für die genannten Szenarien und eine beispielhafte Abbildung von Echtdaten aus dem Bibliothekssystem der UB Mannheim. Wir wollen die Modellierung und die Echtdaten im Laufe der nächsten Monate auf dem Linked Data Service der UB Mannheim bereitstellen.
Ausleihdaten aus Bibliotheken als Linked Open Data publizieren und nutzen from Magnus Pfeffer
]]>
914 9 https://cdn.slidesharecdn.com/ss_thumbnails/2011swibbewegungsdaten-111129035855-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
RVK 3.0 - Die Regensburger Verbundklassifikation als Normdatei für Bibliotheken und als Ontologie im Semantic Web https://de.slideshare.net/slideshow/2011-rvk-anwendertreffen-rvk-3punkt0/9767366 2011rvkanwendertreffenrvk3punkt0-111019042331-phpapp02
Projektbereicht auf dem RVK Anwendertreffen am 18. Oktober 2011 in Regensburg. Kurzer Überblick über die Anforderungen an Normdaten und Ontologien im Semantic Web und wie die RVK "auf Stand" gebracht werden kann.]]>

Projektbereicht auf dem RVK Anwendertreffen am 18. Oktober 2011 in Regensburg. Kurzer Überblick über die Anforderungen an Normdaten und Ontologien im Semantic Web und wie die RVK "auf Stand" gebracht werden kann.]]>
Wed, 19 Oct 2011 04:23:29 GMT https://de.slideshare.net/slideshow/2011-rvk-anwendertreffen-rvk-3punkt0/9767366 MagnusPfeffer@slideshare.net(MagnusPfeffer) RVK 3.0 - Die Regensburger Verbundklassifikation als Normdatei für Bibliotheken und als Ontologie im Semantic Web MagnusPfeffer Projektbereicht auf dem RVK Anwendertreffen am 18. Oktober 2011 in Regensburg. Kurzer Überblick über die Anforderungen an Normdaten und Ontologien im Semantic Web und wie die RVK "auf Stand" gebracht werden kann. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2011rvkanwendertreffenrvk3punkt0-111019042331-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Projektbereicht auf dem RVK Anwendertreffen am 18. Oktober 2011 in Regensburg. Kurzer Überblick über die Anforderungen an Normdaten und Ontologien im Semantic Web und wie die RVK &quot;auf Stand&quot; gebracht werden kann.
from Magnus Pfeffer
]]>
1840 6 https://cdn.slidesharecdn.com/ss_thumbnails/2011rvkanwendertreffenrvk3punkt0-111019042331-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Bibliotheken und Linked Open Data https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data/9608350 2011vdbleipziglinkeddata-111008094430-phpapp02
Einfürung in Open Data und Linked Data im Kontext bibliografische Daten und Bibliotheken. Inklusive einem Szenario für den Einstieg: Erweiterung eines Katalogs oder Dokumentenservers um eine semantische Komponente. Vortrag im Rahmen der Veranstaltung "Gegenwart und Zukunft der Sacherschließung". Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt. Enthält Teile von CC Attribution-ShareAlike Vorträgen Anderer. Vielen Dank an dieser Stelle.]]>

Einfürung in Open Data und Linked Data im Kontext bibliografische Daten und Bibliotheken. Inklusive einem Szenario für den Einstieg: Erweiterung eines Katalogs oder Dokumentenservers um eine semantische Komponente. Vortrag im Rahmen der Veranstaltung "Gegenwart und Zukunft der Sacherschließung". Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt. Enthält Teile von CC Attribution-ShareAlike Vorträgen Anderer. Vielen Dank an dieser Stelle.]]>
Sat, 08 Oct 2011 09:44:29 GMT https://de.slideshare.net/slideshow/bibliotheken-und-linked-open-data/9608350 MagnusPfeffer@slideshare.net(MagnusPfeffer) Bibliotheken und Linked Open Data MagnusPfeffer Einfürung in Open Data und Linked Data im Kontext bibliografische Daten und Bibliotheken. Inklusive einem Szenario für den Einstieg: Erweiterung eines Katalogs oder Dokumentenservers um eine semantische Komponente. Vortrag im Rahmen der Veranstaltung "Gegenwart und Zukunft der Sacherschließung". Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt. Enthält Teile von CC Attribution-ShareAlike Vorträgen Anderer. Vielen Dank an dieser Stelle. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2011vdbleipziglinkeddata-111008094430-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Einfürung in Open Data und Linked Data im Kontext bibliografische Daten und Bibliotheken. Inklusive einem Szenario für den Einstieg: Erweiterung eines Katalogs oder Dokumentenservers um eine semantische Komponente. Vortrag im Rahmen der Veranstaltung &quot;Gegenwart und Zukunft der Sacherschließung&quot;. Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt. Enthält Teile von CC Attribution-ShareAlike Vorträgen Anderer. Vielen Dank an dieser Stelle.
from Magnus Pfeffer
]]>
2105 8 https://cdn.slidesharecdn.com/ss_thumbnails/2011vdbleipziglinkeddata-111008094430-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Altbestandserschließung: Automatische Übernahme von RVK und SWD über Verbundgrenzen hinweg https://de.slideshare.net/slideshow/altbestandserschliessung-automatische-bernahme-von-rvk-und-swd-ueber-verbundgrenzen-hinweg/9608043 2011vdbleipzigaltbestand-111008090223-phpapp01
Ein kurzer Bericht über den aktuellen Stand des Projekts zur Altbestandserschließung im Südwestverbund und Hebis. In diesem Projekt werden über einen im Grunde recht einfachen Vergleichsalgorithmus Titel identifiziert, die aus Sicht der Sacherschließung identischen oder sehr ähnlichen Inhalt haben. Die können u.a. andere Auflagen und Ausgaben sein. Innerhalb einer solchen Gruppe von äquivalenten Titeln werden die nicht erschlossenen Titel mit den Sacherschließungselementen (hier: RVK und SWD-Schlagwörter) der erschlossenen Titel angereichert. In den Verbundkataloge von Südwestverbund und Hebis können durch die Übernahme der Informationen jeweils mehr als eine Million Titel mit Sacherschließungselementen angereichert werden. In Stichproben und systematischen Untersuchungen durch Arbeitsgruppen in beiden Verbünde wurde die hohe Qualität der übernommenen Elemente und die Validität des Verfahrens bestätigt. Beide Verbünde spielen aktuell die Daten ein. Vortrag im Rahmen der Veranstaltung "Gegenwart und Zukunft der Sacherschließung". Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt.]]>

Ein kurzer Bericht über den aktuellen Stand des Projekts zur Altbestandserschließung im Südwestverbund und Hebis. In diesem Projekt werden über einen im Grunde recht einfachen Vergleichsalgorithmus Titel identifiziert, die aus Sicht der Sacherschließung identischen oder sehr ähnlichen Inhalt haben. Die können u.a. andere Auflagen und Ausgaben sein. Innerhalb einer solchen Gruppe von äquivalenten Titeln werden die nicht erschlossenen Titel mit den Sacherschließungselementen (hier: RVK und SWD-Schlagwörter) der erschlossenen Titel angereichert. In den Verbundkataloge von Südwestverbund und Hebis können durch die Übernahme der Informationen jeweils mehr als eine Million Titel mit Sacherschließungselementen angereichert werden. In Stichproben und systematischen Untersuchungen durch Arbeitsgruppen in beiden Verbünde wurde die hohe Qualität der übernommenen Elemente und die Validität des Verfahrens bestätigt. Beide Verbünde spielen aktuell die Daten ein. Vortrag im Rahmen der Veranstaltung "Gegenwart und Zukunft der Sacherschließung". Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt.]]>
Sat, 08 Oct 2011 09:02:20 GMT https://de.slideshare.net/slideshow/altbestandserschliessung-automatische-bernahme-von-rvk-und-swd-ueber-verbundgrenzen-hinweg/9608043 MagnusPfeffer@slideshare.net(MagnusPfeffer) Altbestandserschließung: Automatische Übernahme von RVK und SWD über Verbundgrenzen hinweg MagnusPfeffer Ein kurzer Bericht über den aktuellen Stand des Projekts zur Altbestandserschließung im Südwestverbund und Hebis. In diesem Projekt werden über einen im Grunde recht einfachen Vergleichsalgorithmus Titel identifiziert, die aus Sicht der Sacherschließung identischen oder sehr ähnlichen Inhalt haben. Die können u.a. andere Auflagen und Ausgaben sein. Innerhalb einer solchen Gruppe von äquivalenten Titeln werden die nicht erschlossenen Titel mit den Sacherschließungselementen (hier: RVK und SWD-Schlagwörter) der erschlossenen Titel angereichert. In den Verbundkataloge von Südwestverbund und Hebis können durch die Übernahme der Informationen jeweils mehr als eine Million Titel mit Sacherschließungselementen angereichert werden. In Stichproben und systematischen Untersuchungen durch Arbeitsgruppen in beiden Verbünde wurde die hohe Qualität der übernommenen Elemente und die Validität des Verfahrens bestätigt. Beide Verbünde spielen aktuell die Daten ein. Vortrag im Rahmen der Veranstaltung "Gegenwart und Zukunft der Sacherschließung". Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/2011vdbleipzigaltbestand-111008090223-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Ein kurzer Bericht über den aktuellen Stand des Projekts zur Altbestandserschließung im Südwestverbund und Hebis. In diesem Projekt werden über einen im Grunde recht einfachen Vergleichsalgorithmus Titel identifiziert, die aus Sicht der Sacherschließung identischen oder sehr ähnlichen Inhalt haben. Die können u.a. andere Auflagen und Ausgaben sein. Innerhalb einer solchen Gruppe von äquivalenten Titeln werden die nicht erschlossenen Titel mit den Sacherschließungselementen (hier: RVK und SWD-Schlagwörter) der erschlossenen Titel angereichert. In den Verbundkataloge von Südwestverbund und Hebis können durch die Übernahme der Informationen jeweils mehr als eine Million Titel mit Sacherschließungselementen angereichert werden. In Stichproben und systematischen Untersuchungen durch Arbeitsgruppen in beiden Verbünde wurde die hohe Qualität der übernommenen Elemente und die Validität des Verfahrens bestätigt. Beide Verbünde spielen aktuell die Daten ein. Vortrag im Rahmen der Veranstaltung &quot;Gegenwart und Zukunft der Sacherschließung&quot;. Die interdisziplinäre Fortbildung für Fachreferentinnen und Fachreferenten wurde veranstaltet von der Kommission für Fachreferatsarbeit mit Unterstützung der Deutschen Nationalbibliothek in Leipzig und fand am 6. und 7. Oktober 2011 statt.
from Magnus Pfeffer
]]>
1025 3 https://cdn.slidesharecdn.com/ss_thumbnails/2011vdbleipzigaltbestand-111008090223-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
https://cdn.slidesharecdn.com/profile-photo-MagnusPfeffer-48x48.jpg?cb=1604314771 My main research interest is computer-assisted or automatic indexing and classification of bibliographic metadata. I am also working on ideas to create crosswalks between different thesauri or classification systems by harvesting cooccurrance information from bibliographic databases. Currently I am working on bringing library data into the semantic web as linked open data. I teach classes on knowledge management, digital libraries and information literacy / scientific writing. https://plus.google.com/+MagnusPfeffer https://cdn.slidesharecdn.com/ss_thumbnails/pfefferopensourcemetadatenmanagement-160405100408-thumbnail.jpg?width=320&height=320&fit=bounds MagnusPfeffer/open-source-software-zur-verarbeitung-und-analyse-von-metadatenmanagement Open Source Software z... https://cdn.slidesharecdn.com/ss_thumbnails/keynotekim-dini-150330083523-conversion-gate01-thumbnail.jpg?width=320&height=320&fit=bounds slideshow/linked-data-in-der-lehre/46449010 Linked Data in der Lehre https://cdn.slidesharecdn.com/ss_thumbnails/cloudcomputingfrdieverarbeitungvonmetadaten-141207060217-conversion-gate01-thumbnail.jpg?width=320&height=320&fit=bounds slideshow/cloud-computing-fr-die-verarbeitung-von-metadaten/42438493 Cloud Computing für di...