Es ist geplant, auf Basis der gesammelten Informationen (siehe Spider) Informationen an die Betreiber*innen der Websites zu versenden. Hierzu müssen Prozesse erarbeitet und vermutlich weitere Tools geschaffen werden.
Zur Kommunikation dient der Chatbegrünung-Kanal [#green-spider](https://chatbegruenung.de/channel/green-spider) sowie die [Issues](https://github.com/netzbegruenung/green-spider/issues) hier in diesem Repository.
Damit werden alle bekannten WWW-Adressen aus [netzbegruenung/green-directory](https://github.com/netzbegruenung/green-directory) geprüft und Daten dazu gesammelt.
Das Ergebnis ist die Datei `webapp/dist/data/spider_result.json`. Wenn Du die neuen Daten ins Repository einspielen möchtest, erstelle bitte einen Pull Request.
Achtung: Dieser Vorgang kann viele Stunden dauern.
Voraussetzungen:
- Docker
- Zugangsdaten für den Google Cloud Storage bucket (derzeit über [marians](https://github.com/marians))
Befehl:
```
make screenshots
```
Damit werden neue Screenshots für alle Sites (jeweils die erste kanonische URL einer Site) erstellt und die Datei `webapp/dist/data/screenshots.json` aktualisiert. Screenshots werden vorübergehend in `./temp` abgelegt, wo sie jedoch danach gelöscht werden können.
Die unter https://netzbegruenung.github.io/green-spider/ veröffentlichte Webapp zeigt den Inhalt des [docs](https://github.com/netzbegruenung/green-spider/tree/master/docs) Verzeichnisses für den `master` Branch dieses repositories an. Dieser kann automatisch neu erzeugt werden.