Daten lesen und schreiben

Einen Überblick über öffentliche Repositories mit Forschungsdaten erhaltet ihr z.B. in der Registry of research data repositories (re3data).

Neben spezifischen Python-Bibliotheken zum Zugriff auf entfernte Speichermedien und Geodaten stellen wir Euch vier Werkzeuge genauer vor:

Siehe auch

Scrapy

Framework zum Extrahieren von Daten aus Websites als JSON-, CSV- oder XML-Dateien.

Pattern

Python-Modul zum Data Mining, Verarbeitung natürlicher Sprache, ML und Netzwerkanalyse

Web Scraping Reference

Übersicht zu Web Scraping mit Python

Zum Speichern von relationalen Daten, Python-Objekten und Geodaten stellen wir Euch PostgreSQL, SQLAlchemy und PostGIS vor.

Zum Bereinigen und Vorbereiten der Daten stellen wir Euch einige Best Practices und hilfreiche Python-Pakete in Daten bereinigen und validieren vor.