michael979
Joined: 24/07/2012 13:21:19
Messages: 1
Offline
|
Hallo,
ich arbeite gerade an ein einer Art erweiterten Wikipedia-Layer für Google Maps/ Version 3. Dazu benötige ich zuerst die geokodierten Wikipedia-Beiträge. Meine ersten Versuche waren, die Wikipediadaten direkt nach geokodierten Einträgen zu parsen. Bei de.wikipedia.org bin ich so auf gut 175.000 Beiträge gekommen. Wie ich sehe, sind es bei Genoames (http://www.geonames.org/wikipedia/) aber ca. 240.000 Einträge. Leider habe ich keine Möglichkeit gefunden, diese Daten direkt zu downloaden. Lediglich einen Umweg über die Datei "alternateNames" sowie einen Datadump ("wikipedia-200803") aus dem Jahr 2008. Beide haben aber viel weniger geocodierte Einträge.
Gibt es eine Möglichkeit, an diese 240.000 Artikel von http://www.geonames.org/wikipedia/ zu kommen? Also nicht über die API, sondern zum download? "Premium" mit Bezahlung wäre kein Problem.
Viele Grüße
Michael
|