Der Stadtrat möge jeweils einzeln beschließen:
1.) Im Verwaltungshaushalt wird ein neuer Hauptabschnitt “Wirtschaftsförderung” angelegt, zusätzlich zum Bereich “sonstige Wirtschaftsförderung”.
2.) Im Verwaltungshaushalt werden im Bereich “Wirtschaftsförderung” folgende neue Haushaltspositionen anlegt:
Bezeichnung “Marketing Wirtschaftsstandort” Mögliche Maßnahmen: Werbeaktionen für Wirtschaftsstandort, Agenturauftrag zur aktiven Umsetzung der Standortbewerbung Budget: 2017: 30.000 € + Folgejahre: 60.000 €
3.) Die Stadt überprüft, ob eine Förderung einer Präsentation des Wirtschaftsstandorts Gerolzhofen durch Fördertöpfe (z.B. Bezirk, Land, EU, etc.) möglich ist, ggfs. auch unter anderen Namen wie z.B. “Vernetzung von Unternehmen”. Sofern es geeignete Förderprogramme gibt, stellt die Verwaltung entsprechende Förderanträge.
Begründung:
Der Bereich Wirtschaftsförderung kommt in Gerolzhofen zu kurz.
Die zwei großen Steuereinnahmen der Stadt sind die Einkommensteuerumlage sowie die Gewerbesteuer (plus Gemeindeanteil Umsatzsteuer), die sich mit jeweils rund 2,5 – 3,5 Mio € Einnahmen ungefähr die Waage halten.
Unsere freiwilligen Leistungen der Stadt im Bereich der Bürgerförderung sind vielfältig.
Umgekehrt sind die freiwilligen Leistungen im Bereich der Wirtschaftsförderung im Haushalt nur schwer zu finden. Lediglich im Gliederungstext “Sonstige Wirtschaftsförderung” “7911” finden sich Maßnahmen wie Giebelbeleuchtung, Weihnachtsaktionen, Adventsmarkt oder LAG.
Dies sind durchaus sinnvolle Maßnahmen zur Unterstützung des Einzelhandels in der Innenstadt.
Viele Arbeitsplätze und ein Großteil des Gewerbesteueraufkommens wird von den Handwerks-, Industrie-, Handels- und Gewerbebetrieben in den Gewerbegebieten erwirtschaftet.
Hier muss es Ziel der Stadt sein, unsere vorhandenen Unternehmen zu unterstützen und gezielt weitere mittelständisch geprägte Unternehmen neu in Gerolzhofen anzusiedeln. Diese Maßnahmen sollen in der neuen Haushaltsstelle abgebildet werden.
In den bisherigen Sitzungen des Wirtschaftsarbeitskreises haben wir festgestellt, dass es von Gerolzhofen überhaupt kein Präsentationsmaterial (print, online) mit dem Schwerpunkt der Unternehmensvernetzung und Unternehmensansiedlung gibt, während es das von den meisten anderen Stadteinrichtungen gibt. Hier muss zuerst Basisarbeit geleistet werden, auf die wir in den kommenden Jahren aufbauen können.
Oft hört man Wettervorhersagen und weiß schon vorher, dass sie falsch sein müssen. Anstoß für diesen Blogpost war eine DWD-Wetterwarnung vor 15cm Neuschnee, während alle anderen Wettermodelle einen deutlichen Temperaturanstieg auf bis zu +5°C vorhersagten. Natürlich blieb der Schnee nicht liegen und das hätte man schnell selbst vorhersagen können. In diesem Beitrag zeige ich, welche Quellen ich zur Wettervorhersage nutze.
Leider gibt es in Mainfranken keine solche regionale Wetterseite wie den Wetterochs.de im Raum Forchheim, daher hier meine Vorgehensweise:
Exakte regionale Messwerte gibt es von der Meteomedia-Wetterstation auf dem Gelände der ÜZ in Lülsfeld:
Dieser Link ist meine erste Anlaufstellen: http://wetterstationen.meteomedia.de/messnetz/vorhersagegrafik/106570.png Dort bekommt man das Meteogramm für Lülsfeld. Und zwar mit echten Messwerten und keinen interpolierten Werten.
Was liest man (neben den trivialen Werten wie Temperatur, Sonnenscheindauer, Niederschlag etc.) da heraus?
Die roten und blauen Punkte der Höchst- und Tiefsttemperaturen zeigen einem bei Frontdurchgang an, ob es eine Warm- oder Kaltfront ist mit den der jeweiligen Front zugehörigen entsprechenden Wetterphänomenen.
Die „rel. Luftfeuchtigkeit“ zeigt einem, ob es Nebel gibt (was bei 100% der Fall ist) oder nicht.
Die Wetterstation gehörte früher Jörg Kachelmann, zur Finanzierung seines Prozesses musste er sein damaliges Unternehmen an Meteomedia verkaufen. Heute hat Jörg Kachelmann wieder ein Wettervorhersage-Unternehmen gegründet und wieder bietet er innovative Ansätze, die bessere Vorhersagen ermöglichen.
Das gibt es in einer 3-Tages-Ansicht (siehe oben) und in einer 10-Tages-Ansicht:
Was liest man (neben den trivialen Werten) da heraus?
Man kann sich die Bandbreite der verschiedenen Wettermodelle anschauen: Wenn alle Modelle eng beisammen liegen, ist die Wahrscheinlichkeit recht hoch, dass diese Vorhersage auch eintritt.
Umgedreht kann man sagen, dass wenn die Werte weit auseinander liegen, dass die Messwerte eben keine exakte Interpretation zulassen. Bestimmt wird ein Wettermodell richtig liegen, aber wenn sie 10°C auseinander liegen, kann man nicht mehr sagen, welches denn jetzt eintritt.
Man erkennt, dass Wettermodelle bestenfalls 3 Tage halbwegs vorhersagen können (aber ganz oft schon nicht mal den aktuellen Tag richtig treffen). Ab dem 4. Tag sind es bestenfalls noch Trends, aber keine Vorhersagen mehr. Z.B. in der Grafik oben vom 15.01. ist die Vorsage für den 4. Tag (also den 19.01.) für 7:00 Uhr morgens zwischen -5°C und -17°C. Schon am 4. Tag laufen die Wettermodelle um 12°C auseinander, am 5. Tag bereits 16°C und am 6. Tag liegen zwischen den verschiedenen Wettermodellen 20°C: Am Handy oder vielen Webseiten bekommt man nur einen Wert in der Langzeitvorhersage. Je nachdem, welches Wettermodell die Seite benutzt, sagt sie einem -1°C oder -21°C voraus. Ein „??“ wäre ehrlicher als einen einzigen Wert anzugeben.
[Update: in der oben gezeigten Grafik waren die Tiefstwerte in der Nacht vom 15.01. auf den 16.01. (also rund 12 Stunden nach dem Screenshot) bei -11°C während die ganzen Modelle eine Bandbreite von -3,5°C bis -7,5°C vorhergesagt haben. Und am nähsten dran lag z.B. das Schweizer Wettermodell mit -7,5°C, während das Deutsche Wettermodell -5,5°C vorhersagte.]
Ebenfalls innovativ bei Kachelmann: Das Regenradar bis auf Landkreisebene:
Kachelmannwetter bietet auf der Deutschlandkarte ungefähr die Auflösung, die der DWD auf der Bayern-Detailkarte bietet.
Auf der Bayernkarte bietet Kachelmannwetter eine erhebliche höhere Auflösung (=mehr Informationen) als der DWD
Zusätzlich kann man bei Kachelmannwetter in die Landkreise reinzoomen und hier zwar keine Informationen auf Pixel-Ebene mehr bekommen, aber es sind mehr Informationen als auf Landesebene. Also ein echter Mehrwert.
Ich selbst als Luftfahrer ein Freund der Meteogramme. Der DWD bietet die Meteogramme nur im kommerziellen Angebot der Luftfahrt an (oder ich habe sie nicht gefunden). Bei Kachelmannwetter gibt es auch frei verfügbare Meteogramme:
Und man sieht die Unterschiede zwischen den zwei Meteogrammen [Update: Mist, ich habe von Lülsfeld den Link und keinen Screenshot eingebaut, jetzt aktualisiert sich das Meteogramm permanent und meine folgenden Aussagen sind nicht mehr ohne weiteres nachvollziehbar]:
Es gibt jetzt gerade leichten Schneefall: Bei Meteomedia ist sie drinnen, bei Kachelmann nicht.
Für den Folgetag sagt Meteomedia 1,9 Stunden Sonnenschein voraus, Kachelmann bietet mit 3,7 Stunden besseres Wetter.
Die Tiefsttemperaturen sind bei Kachelmann viel niedriger.
Die Meteogramme sind also nur ein erster Einstieg für einen groben Überblick und wenn man es genauer wissen will, muss man sich verschiedene Wettermodelle anschauen.
Hier sind noch weitere Wetterlinks, die ich regelmäßig benutze:
DrJack: Vorhersagekarten, die ich v.a. für den Segelflug benutze, aber die natürlich auch für eine normale Wettervorhersage genutzt werden können und die sehr oft verdammt gut liegen:
Wenn man sich seine Lieblingsseiten in die Browser-Bookmarks legt und parallel öffnet, kann man sich innerhalb weniger Sekunden einen Überblick übers Wetter verschaffen, der in der Regel besser ist als der Vorhersage einer einzelnen Webseite oder Handy-App.
Ich werde immer wieder gefragt, welche Kamera ich empfehlen würde. Dazu diesen Blogbeitrag. Zuerst ein paar Infos, worauf man achten sollte, danach konkrete Empfehlungen, die ich selbst für mich ausgewählt habe. Für keine der Empfehlungen oder Links bekomme ich Geld, sondern es ist das System, mit dem ich fotografiere.
Wer nicht so viel lesen will, kann gleich ans Ende des Artikels zum Fazit mit der konkreten Empfehlung springen.
Bildqualität
Zunächst braucht man ein möglichst objektives und seriöses System zum Vergleich von verschiedenen Kameras über die Markengrenzen hinweg. Ich benutze die DxOMark-Ergebnisse zum Vergleich von Kameras und Objektiven. Der Vorteil von dem System ist, dass es über Jahre hinweg mit den gleichen Messmethoden die Geräte bewertet und man so einen objektiven Vergleich hat.
DxOMark bewertet primär 3 Faktoren:
Portrait (Farbtiefe)
Landschaft (Dynamikumfang)
Sport (Low-Light ISO)
Portrait (Farbtiefe)
Hier wird bewertet, wie viele unterschiedliche Farben (z.B. bei Hauttönen) die Kamera aufnehmen kann. Bei heutigen Sensoren ist die Farbtiefe nicht mehr so relevant. Über 22 bits ist alles gut. Hier ein Unterschied bei den Farbtönen (mit dem Schieberegler spielen: Links weniger Farbtöne, rechts mehr Farbtöne):
Landschaft (Dynamikumfang)
Das ist wichtig und hier sieht man Unterschiede im Bild: Wie viele Blendenstufen zwischen Weiß und Schwarz kann die Kamera aufnehmen (z.B. Strukturen am hellen Himmel gegenüber Strukturen im Schatten). Wenn Bildbereiche in Weiß ausbrennen und im Schwarz absaufen, wirkt es unprofessionell und billig (wie alte Homevideo- oder Polaroid-Aufnahmen). Hier sollte so viel wie möglich erreicht werden, mindestens aber ein Wert von 12. Jeder Wert verdoppelt die Dynamik und die Bildqualität (13 ist doppelt so viel wie 12 und 14 ist 4x so viel wie 12).
Hier ein Unterschied bei der Dynamik: mit dem Schieberegler spielen: Links wenig Dynamik, rechts mehr Dynamik. Man sieht, dass sowohl die Lichter um den Mond ausbrennen als auch die Schatten z.B. in den Dächern absaufen:
Sport (Low-Light ISO)
Das ist in der Praxis der wichtigste Wert. Bei Sonnenschein machen alle Kameras (selbst gute Smartphones) gute Fotos. Aber sehr oft werden Kameras im Inneren von Räumen benutzt oder abends oder in anderen Situationen mit schlechtem Licht. Und ganz schnell muss man die Lichtempfindlichkeit hochdrehen (“ISO-Wert”). Der Standard-ISO-Wert ist 100 und mit jeder Verdoppelung des ISO-Wertes halbiert sich die Bildqualität. In Innenräumen braucht man oft ISO-3200 oder ISO-6400. Man kennt das Ergebnis von Smartphoneaufnahmen abends im Restaurant: Das Bild rauscht und Details verschwinden.
Der beim DxOMark angegebene ISO-Wert gibt an, bis zu welchem ISO-Wert die Kamera eine definierte Bildqualität liefert. Je höher, desto besser.
Achtung: Beim Rauschen muss der prozentuale Unterschied, nicht der absolute Unterschied betrachtet werden: Der Unterschied zwischen 400 und 500 (100 Punkte) ist deutlich sichtbar (sind 25% bessere Bildqualität), während der Unterschied zwischen 1400 und 1500 (ebenfalls 100 Punkte) eben nur 7% Unterschied sind, die man vermutlich nicht mehr sieht.
Hier ein Ausschnitt aus diesem Foto:
Links viel Rauschen, rechts wenig Rauschen (bei schlechten Kameras [oder Smartphones] ist das Rauschen viel stärker ausgeprägt, aber man sollte die Form der Bildstörung bei diesem Beispiel erkennen können).
Fazit Bildqualität
Wenn man sich die Werte anschaut, ist die Bildqualität eine Funktion der Sensorgröße: Je größer der Sensor ist, desto besser ist die Bildqualität. Große Sensoren sind in der Regel nur in Spiegelreflex- und Systemkameras eingebaut. Wenn ich auf eine gute Bildqualität Wert lege, komme ich um eine “richtige” Kamera nicht rum.
Das praktischere System
Es gibt Kamerasysteme: Spiegelreflexkameras und Systemkameras.
Nachdem das die Basis für das gesamte Zubehör wie Objektive ist, ist das eine elementare Entscheidung und man sollte sich das System gut überlegen.
Spiegelreflexkameras
Mit einem Spiegel zu arbeiten, ist der klassische (alte) Ansatz. In meinen Augen hat das Spiegelsystem gegenüber spiegellosen Systemkameras so viele Nachteile, dass ich meine alte Spiegelreflexausrüstung eingemottet habe und auf ein spiegelloses System gewechselt bin. Möchte man unbedingt im Jahr 2017 noch ein ein Spiegel-System einsteigen, dann bietet Nikon die beste Bildqualität mit dem größten System. Schaut man sich bei DxOMark die Bildqualität von Canon-Kameras an, weiß man, dass man keine Canon-Kamera haben will (auch wenn sie meistens ein paar Euro günstiger sind).
Systemkameras (ohne Spiegel)
Arbeitet bei Spiegelreflexkameras vieles analog, ist bei Systemkameras alles digital. Und das hat insbesondere in der Praxis zahllose Vorteile:
Kompakt und leicht
Nachdem kein paralleler Bildlauf mit Spiegelkasten benötigt wird, kann man die Kameras kleiner und leichter bauen. Bei Wanderungen oder im Urlaub kann es einen Unterschied machen, ob man den ganzen Tag eine Kamera mit 1000g oder 500g mit sich rumschleppt. Und nachdem der Strahlengang kompakter ausfällt, ist nicht nur die Kamera kompakter, sondern auch die Objektive.
Hier der Vergleich der Nikon D5500 mit der Sony A6300. Beider Kameras haben ein vergleichbares Objektiv, vergleichbare Funktionen, vergleichbare Bildqualität und einen vergleichbaren Preis. Wenn ich neu einsteigt: Will ich mir wirklich so einen Klopper kaufen?
Das Sucherbild zeigt nicht das echte Bild, sondern das Bild, wie es aufgenommen wird. Wenn ich Aufnahmeparameter wie Blende, Belichtungszeit, ISO-Wert ändere, wird mir im Sucher (und im Display) immer sofort angezeigt, wie das Ergebnis aussieht, wenn ich es jetzt aufnehme. Ich weiß vorher, wie das Foto wird.
Fokuslupe und Entfernungsanzeige
Wenn ich manuell fokussiere, schaltet sich automatisch die Fokuslupe ein: Ich sehe eine starke Vergrößerung vom Bildausschnitt und kann viel besser beurteilen, ob ich wirklich richtig scharfgestellt habe.
Insbesondere bei schlechtem Licht ist das eine große Hilfe. Und nachts bei der Milchstraßenfotografie bei absoluter Dunkelheit hat mich mal ein anderes Features gerettet: Im Sucher wird die Entfernung angezeigt. Mit meiner Systemkamera konnte ich zuverlässig auf Unendlich fokussieren, während mein Begleiter mit seiner Spiegelreflex meistens nur raten konnte und so viel mehr Ausschuss hatte.
Lautlose Auslösung
Anne berichtet für die Zeitung oft von (klassischen) Konzerten und da ist das Auslösegeräusch einfach störend. Die besseren Systemkameras unterstützen eine komplett lautlose Auslösung. Zusätzlich mit guter High-ISO-Fähigkeit kann man ohne Blitz unbemerkt hervorragende Fotos aufnehmen. Das perfekte Werkzeug für Reporter.
Weitere Sucher-Features
Die Liste der Funktionen ist wirklich lang, insbesondere wenn man manuell in die Belichtung eingreift:
Zebra-Funktion: Man kann sich anzeigen lassen, welche Bereiche im Bild über- bzw. unterbelichtet sind. Die Grenzwerte kann man natürlich einstellen.
Live-Histogramm: Fotos sehen nur gut aus, wenn sie alle Tonwerte ausnutzen. Im Live-Histogramm kann man sich ständig im Sucher das Histogramm, also die Tonwertverteilung, anzeigen lassen. Mehr Infos zum Histogram unter http://blog.arnulf-koch.de/basics-der-bildbearbeitung/
Kantenanhebung: Man kann sich anzeigen lassen, welche Bereiche im Bild scharf sind. Hilfreich, wenn man manuelle fokussiert und mit Offenblende arbeitet, man also bewusst große Teile des Fotos unscharf haben will und den Fokus gezielt auf einen kleinen scharfen Bereich legen will.
Video-Funktionen
Der Sucher der Systemkameras nimmt quasi permanent ein Video auf und bearbeitet ihn permanent. Video ist also per Definition eine Stärke der Systemkameras. Sony hat in den besseren Modellen (A6300 und A6500) eine Besonderheit, die für perfekt scharfe 4K-Videos sorgt: Während fast alle Kameras die geringere Videoauflösung durch Lineskipping erzeugen (also einfach nicht benötigte Pixel weglassen), liest Sony den gesamten Sensor (entspricht 6K) aus und rechnet ihn auf 4K runter. Durch das Runterrechnen von 6K zu 4K verbessert sich die Schärfe, das Rauschen und die Farben. Wer ernsthaft mit Videos arbeitet, kommt um eine Sony A6300 oder Sony A6500 nicht herum.
Zubehör
Die meisten kaufen sich vielleicht 2-3 Objektive und ein Blitz, ggfs. noch ein Stativ. Diese Standardkomponenten gibt es bei jedem Hersteller, erst bei den Spezialobjektiven unterscheiden sich die Hersteller, aber die werden in der Regel nicht von Amateuren gekauft.
Konkrete Empfehlungen
Noch besser sind Vollformat-Kameras, aber hier sind die Kameras und Objektive erheblich teurer. Daher empfehle ich als besten Kompromiss aus Preis und Leistung APS-C-Kameras:
Für scharfe Fotos oder schöne Bokehs ist nicht die Kamera mit dem Sensor verantwortlich, sondern das Objektiv. Ich habe oben nicht einmal die Megapixelzahl der Kameras genannt, denn der limitierende Faktor sind die Objektive. Wenn die Zoom-Objektive nur 8 Megapixel auflösen können, ist es egal, ob die Kamera einen 16-, 24- oder 36-Megapixel-Sensor hat. Im Foto werden nicht mehr als 8 Megapixel Bildinformationen sein. Erst mit Festbrennweiten bekommt man mehr Bilddetails.
Um eine hohe Auflösung bei gleichzeitig hohen Kontrasten zu erreichen, sind komplexe optische Konstruktionen mit vielen Speziallinsen notwendig, und man wird sehen: je mehr Geld man ausgibt, desto bessere Bildqualität bekommt man.
Weiterhin ist in Objektive investiertes Geld gut investiertes Geld. Denn das Kameragehäuse ist nach 4 Jahren veraltert, aber ein gutes Objektiv kann man in 15 Jahren noch benutzen (sofern man beim gleichen Kamerasystem bleibt).
Weitwinkel-Objektive
Hier gibt es von Sony nur ein Objektiv. Von anderen Herstellern gibt es weitere Objektive, aber meistens fehlt ihnen etwas (Zoom oder Autofokus oder Stabilisierung). Dieses Objektiv ist teuer, aber sehr praktisch und aufgrund der Ausgewogenheit und Flexibilität ein Muss für Landschaft, Architektur und Indoor-Fotografie (siehe den Blogbeitrag „Warum man ein Superweitwinkel-Objektiv braucht„).
10mm-Superweitwinkel gibt tolle Perspektiven, insbesondere bei Landschaftsaufnahmen oder in engen Räumen.
Für Astrofotografie besser geeignet, dafür kein Zoom und keine Stabilisierung.
Normal-Objektive
Das Kit-Objektiv SEL-P1650 ist ein kleines Wunderwerk der Technik. In dem Mini-Gehäuse ist ein Zoommotor, Autofokusmotor plus die Motoren zur optischen Stabilisierung drinnen. Und dafür ist die Auflösung/Schärfe überraschend gut. Mit diesem Kit-Objektiv macht man nichts falsch.
Ich habe mir trotzdem das Sony-Zeiss 16-70 gekauft, da es in allem ein Tick besser ist (etwas mehr Zoom-Bereich, im Mittel eine bessere Blende, etwas mehr Schärfe), aber v.a. überhaupt keine Gegenlicht-Empfindlichkeit hat (z.B. Nachts gegen eine helle Lampe fotografieren).
Jeder will ein Teleobjektiv haben, um ganz nah ranzoomen zu können. Aber wenn man z.B. Urlaubsfotos auswertet, sind die wenigsten Fotos mit Teleobjektiven geschossen und die meisten mit Weitwinkel (siehe den Blogbeitrag „Warum man ein Superweitwinkel-Objektiv braucht„).
Reicht in der Regel aus, in der Praxis braucht man kaum Teleobjektive.
Nicht so der Hit. Außer man braucht 300mm.
Hohe Kontraste, gute Schärfe und mit der Blende gerade noch als Portrait-Objektiv einsetzbar.
Makro-Objektive
Geht es darum kleinste Details aufzunehmen, z.B. Insekten, Blütendetails, kommt man um ein Makroobjektiv nicht herum. Nachdem man bei Makroaufnahmen in der Regel manuell fokussieren muss, kann man auch eine günstige Festbrennweite von einem Drittanbieter nehmen. Oder eines der Original-Sony-Makroobjektive. Das 90mm ist eines der schärfsten Objektive überhaupt und von der Brennweite auch als Portrait-Objektiv nutzbar.
Wer sich eine neue Kamera mit Wechselobjektiven kauft (sei es eine Spiegelreflexkamera oder eine Systemkamera), will nach dem Kit-Objektiv als erstes ein Telezoom-Objektiv kaufen, idealerweise mit möglichst hoher Brennweite.
Wertet man dann mal nach einen halben Jahr die Fotogewohnheiten aus, stellt man fest, dass man die meisten Aufnahmen am kurzen Ende seines Kit-Objektives (also 18mm oder 16mm bei APS-C) gemacht hat und die wenigsten Aufnahmen mit dem Tele-Objektiv.
Es ist also viel wichtiger, über ein Weitwinkel-Objektiv zu verfügen als über ein Tele-Objektiv. Ich empfehle dringend allen Hobbyfotografen, über den Kauf eines Superweitwinkel-Objektives nachzudenken.
Hier einige typische Szenen, die ich mit meinem 10-18mm-Objektiv bei 10mm aufgenommen habe, und welchen Ausschnitt man mit 18mm drauf bekommen hätte (warum auch immer liefert Canon seiner Kameras mit einem Kit-Objektiv aus, das nur bis 18mm runtergeht, andere Hersteller, z.B. Sony, haben ihr Kit-Objektiv immerhin auf 16mm getrimmt).
Zuerst der Klassiker: In Räumen, hier kann man nicht einen Schritt weiter nach hinten gehen, da man schon an der Wand steht (mit dem Schieberegler spielen um den Unterschied zu sehen: links 18mm, rechts 10mm):
Schiebt man den Regler ganz nach rechts, sieht das kleine Bild auch gut und vollständig aus. Aber schiebt man den Regler nach links, ist es ein ganz anderes Bild.
Nun der nächste Klassiker für Superweitwinkel: Landschaftsaufnahmen -> man kann einfach mehr einfangen und es sieht erheblich eindrucksvoller aus (links 18mm, rechts 10mm):
Oder Astronomie (links 18mm, rechts 10mm):
Oder Architektur, gerade hohe Gebäude bekommt man ohne Superweitwinkel nicht ganz aufs Bild (links 18mm, rechts 10mm):
Noch zwei Landschaftsfotos:
Noch mal Architektur:
Und zum Schluss noch ein Innenraum:
Im Sony-System (E-Mount APS-C, also für Sony A5100, A6000, A6300, A6500, NEX-5) ist das das Super-Weitwinkel-Objektiv: Sony E 10-18 mm F4 OSS (SEL1018)https://www.sony.de/electronics/kamera-objektive/sel1018
Ich bin sehr zufrieden, mit diesem Objektiv sind alle oben gezeigten Fotos entstanden.
PS: Manche fragen sich vielleicht: Wann ist ein Objektiv ein Normalobjektiv oder ein Weitwinkelobjektiv oder ein Teleobjektiv?
Die Grenzen sind nicht genau definiert, aber das sind die die Bereiche (für die typischen APS-C-Kameras, für Kleinbild/Vollformat müssen sie mit 1,5 multipliziert werden, für Micro-Four-Thirds mit 0,75):
Fischauge: 8-12mm (Fischaugen-Objektive sind nicht optisch korrigiert, alle geraden Linien werden rund gebogen dargestellt)
In der zusammenfassenden Berichterstattung ist diese Verkürzung noch akzeptabel, aber der hinter meiner Aussage stehende Gedanke war und ist mir wichtig, daher will ich ihn hier noch mal wiedergeben:
Um das Eintreiben ging es mir nicht. Meine Aussage war sinngemäß, dass hier eine Umverteilung von der kommunalen Staatsebene zum Bund und zum Land hin stattfindet, obwohl Bund und Land im Geld schwimmen, keine neuen Schulden aufnehmen, sogar ihre Schulden zurückzahlen, während uns in den Kommunen das Wasser bis zum Hals steht.
Aber gerade wir Kommunen sind es, die die praktischen und erfahrbaren Dienste für den Bürger anbieten. Z.B. haben wir unser Schwimmbad Geomaris für rund 10 Mio € renoviert und mussten ein Großteil über neue Schulden finanzieren. Und jetzt müssen wir bald für weitere Teile unserer Dienstleistungen Umsatzsteuer abführen, also werden hier 16% unserer dann umsatzsteuerpflichtigen Einnahmen entzogen (oder wir müssen die Preise für den Bürger um 19% anheben) und dieses Geld von den armen Kommunen bekommt das reiche Land oder der reiche Bund. Das habe ich als „absurd“ und „unbefriedigend“ bezeichnet.
Das war der Kern meine Aussage (ich hatte noch ein Beispiel vom Geomaris genannt, da wurde für einen Teil der Leistungen ein höherer Umsatzsteuersatz fällig, wir haben ihn bisher nicht auf die Eintrittspreis umgelegt, also erhöht sich das Betriebsdefizit entsprechend. Wir haben die Mehrkosten, was in Gerolzhofen meistens 1:1 Mehrverschuldung bedeutet und Bund+Land bekommen das Geld von unseren Schwimmbadbesuchern).
Ich habe gerade mal nachgeschlagen, wie die Umsatzsteuer verteilt wird:
53,9 % bekommt der Bund
44,1 % bekommt das Land
2,0 % bekommt die Kommune
Also eine weitere Umverteilung von unten nach oben, während wir als Kommune immer mehr Aufgaben bekommen, für die wir keinen finanziellen Ausgleich bekommen. Z.B. geben wir neuerdings irrsinnig viel Geld für ein Baumkataster aus. Muss halt jetzt gemacht werden und wir als Kommune müssen schauen, wie wir es finanziert bekommen.
PS: Zur Kommune zählen auch der Landkreis, der in Gerolzhofen z.B. die Geomed-Klinik, die Realschule oder die Kompostanlage betreibt: Knapp die Hälfte unserer Einnahmen müssen wir als Kreisumlage abführen, unser Kämmerer hat ausgerechnet, dass wir von 1 Mio € Gewerbesteuermehreinnahmen – eine Steuer, die eigentlich den Kommunen zufließt – nur ca. 35%, also 350.000 €, für unseren Haushalt einplanen können, und den Rest verlieren wir durch die Kreisumlage und durch infolge der Mehreinnahme sinkenden Schlüsselzuweisungen.
Neulich wurde bei einer Geburtstagsfeier in der Rhön mit Gerolzhofen die weit und breit einmalige Giebelbeleuchtung assoziiert und die damit verbundene tolle Stimmung am Adventsmarkt.
Stimmt! Das ist einem oft nicht bewusst, wenn man sie täglich sieht.
Aber wenn ich mal vor meinem geistigen Auge die ganzen „schönen“ Städte in der Umgebung wie Bamberg, Rothenburg ob der Tauber, Volkach, Iphofen usw. abklappere, dürfte das wirklich niemand haben.
Also, geht mal abends durch unsere Stadt und lasst sie auf Euch wirken.
Hier mein Rundgang durch Gerolzhofen am 25.11.2016 mit der wunderschönen Giebelbeleuchtung.
2-tägige Tagung von 150 IT-Systemhäusern. Themen sind Zukunft von IT-Services, Automatisierung und bessere Kundenservice. Insbesondere bei Cloud-Lösungen.
Vielleicht habt Ihr es mitbekommen: Über „irgendwelche“ Wege werden komplette Surfprofile von Benutzern erstellt und kommerziell vermarktet.
Es gibt also kommerzielle Anbieter, die eure komplette Browserhistory (incl. allem peinlichem) zum Verkauf anbieten.
Hier hat der NDR mit einer Scheinfirma ein Test-Paket angefordert, und es wurde ihnen mal eben als Auszug aus den Verkäufer-Datenbanken 3 Millionen Profile übermittelt. Wenn diese Händler mal eben so 3 Mio Profile als Testdaten rausschicken können, muss man wohl davon ausgehen, dass sie wohl Profile annähernd aller Internetbenutzer besitzen. http://www.ndr.de/fernsehen/sendungen/zapp/Nackt-im-Netz-Journalistenprofile-im-Verkauf,nacktimnetz108.html
Wie kann man Surfprofile Personen zuordnen?
Wenn ich als Werbetreibender, Hacker o.ä. auf die Browserinteraktionen Zugriff habe, ist die Wahrscheinlichkeit sehr hoch, aus den Browserdaten automatisiert die echten Personendaten zu erschließen: weil man sich zum Beispiel in einem Sozialen Netzwerk wie Facebook mit seinem echten Namen anmeldet, oder weil man in Online-Shops seine echte (Liefer- oder Rechnungs-) Adresse eingibt. Schon ist dem Browserverlauf eine echte Person zugeordnet.
Wie kommen Dritte an meinen Browserverlauf?
Es gibt zwei Wege: Den „nackten“ Browserverlauf kann man von außen mit Tracking-Cookies verfolgen.
Der „angereicherte“ Browserverlauf (der auch Inhalte wie eingegebene Daten auslesen kann), kann im Browser mit Addons abgezogen werden. Andere Wege wie gehackte PCs, Viren, aber auch Schutzmodule der Virenscanner will ich hier nicht behandeln.
Fangen wir beim „nackten“ Browserverlauf an.
Wegen des lokalen Bezugs und weil ich zahlender Kunde der Main Post bin, schaue ich mir diese Website mal genauer an. Ich lese sie sehr gerne online, weil es schneller und praktischer ist. Die Webseite ist auch gut gemacht, der Deep-Link zu den Gerolzhöfer Nachrichten http://www.mainpost.de/regional/schweinfurt/gemeinde.=97447-Gerolzhofen/ liefert mir genau, was ich lesen möchte.
Jetzt ist die Frage: Bin ich Kunde der Main Post oder bin ich Produkt für die Werbekunden der Main Post?
Hmmm, die Homepage MainPost.de bekommt bei meinem Aufruf (18.11.2016 17:05 Uhr) offenbar von 8 Parteien Geld oder andere Vorteile, nämlich von mir plus von diesen 7 Werbe- bzw. Trackinganbietern:
Dass mir die Main Post Werbung zeigen will ist OK, und manchmal kann die Werbung auch interessant sein. Aber warum zum Teufel verkauft die Main Post mein Surfprofil an 7 unterschiedliche Unternehmen?
Wessen Interessen stehen da im Vordergrund? Und kann die Main Post überhaupt garantieren, dass dort keine schädliche Software dabei ist? Zumal Werbung neue Werbetracker nachladen kann – und dann auch noch ganz viele andere Skripte und Inhalte von anderen Servern nachgeladen werden, und jeder kann mich tracken.
Schalte ich den Werbefilter aus, greift mein Browser zusätzlich zu mainpost.de noch auf diese 32 Domains zu (18.11.2016 17:15 Uhr):
Jeder dieser 32 Server ist per se erst mal nicht vertrauenswürdig. Denn jeder dieser Server kann Sicherheitslücken haben und neben Trackingfunktionen auch Schadsoftware ausliefern. Viren, Würmer und Verschlüsselungstrojaner werden immer wieder über Werbung ausgeliefert: Wenn ich als Virenprogrammierer 0,30 € für einen Werbeklick zahlen muss, aber dann vom User 500 € fürs Entschlüsseln seiner Daten verlangen kann, ist das doch in Ordnung.
Verkauft nur die Main Post mein Surfprofil? Nein, gerade die großen Medienhäuser tun sich da viel mehr hervor:
Fällt was auf? Immer wieder Google, Facebook und Twitter. Und ob News, Shopping oder Schmuddelsites: Sie wissen ganz genau, was Du machst.
Gibt es überhaupt Seiten, die nicht tracken?
Klar, und man kann es sich auch denken: Die Seiten, die ihre Nutzerdaten nicht verkaufen wollen, tracken sie auch nicht. Hat ja auch nur Nachteile, Tracker einzubauen.
Hier habe ich mal rumgeklickt und wie erwartet waren da keine Tracker aktiv:
wikipedia.org (0)
bundesregierung.de (0)
kk-software.de (0)
gerolzhofen.de (0)
landkreis-schweinfurt.de (0)
Es gibt also noch viele Seiten, die die Privatsphäre der Benutzer achten.
Eher unerwartet, aber dann logisch:
facebook.com (0)
google.com (0)
Den beiden gehört ungefähr jeweils „30% des Internets“, und wie man oben sieht, trackt Google auf fast jeder Seite, und Facebook ist auch ganz oft dabei. Die möchten alle Daten sammeln und keine Daten rausgeben. Also lassen sie natürlich keine fremden Tracker auf ihre Seiten. Doch Facebook weiß natürlich perfekt, was du auf Facebook / Whatsapp / Instagram machst, und Google weiß perfekt, auf was du bei Google / YouTube machst.
Dann muss man wissen, dass der Markt für Onlinewerbung sehr verdichtet ist. Z.B. ist doubleclick.net ein Unternehmen von Google.
Weiter muss man davon ausgehen, dass darunter Werbefirmen sind, die die Benutzerprofile weiterverkaufen. Insbesondere wenn ein Unternehmen insolvent geht, sind die Benutzerprofile das wertvollste in der Insolvenzmasse.
Weiter geht es mit dem „angereicherten“ Browserverlauf, mit den
Browser-Plugins
Es liegt auf der Hand: Wenn man nicht will, dass in ein paar Jahren mal die persönliche Surfhistorie öffentlich im Internet auftaucht, muss man sich schützen. Das geht effektiv nur mit Browser-Plugins wie Werbefiltern.
Das gefährliche an diesen Plugins ist, dass sie vollen Zugriff auf die Inhalte der Webseite haben, also auch in Formulare eingegebene Benutzerdaten auslesen können, und dass sie immer auf jeder Seite aktiv sind. Ein Browser-Plugin kann Euch also vollständig überwachen.
Daher die dringende Empfehlung: Durchforstet regelmäßig alle Eure Browser-Plugins und entfernt alle Plug-Ins, die Ihr nicht zwingend braucht.
Und im uBlock Origin ruhig alle Filter aktivieren. Neben dem massiven Plus an Privatsphäre spart ihr euch einen ordentlichen Teil der Webseitenverbindungen zu all den Werbeseiten und habt als Zusatznutzen ein viel schnelleres Internet. Wenn euch infolgedessen Webseiten nicht reinlassen (wie bild.de oder sueddeutsche.de), dann ist das von deren Seite nachvollziehbar, aber dann muss man konsequent bleiben: Dann besucht man diese Seiten eben nicht.
Hier ein Blick in meine uBlock-Origin-Einstellungen:
Damit habt Ihr in meinen Augen aktuell die beste Browsereinstellung mit einem guten Kompromiss aus persönlichem Schutz und trotzdem einer Teilhabe am modernen Internet und Social Media.
Content kostet Geld!
Aber wenn euch eine Webseite gefällt, vergesst nicht, sie für ihren Content zu bezahlen. Schließt ein Zeitungsabo ab, unterstützt (meist kleine) Webseiten mit Geld über flattr.com oder patreon.com, bucht den werbefreien Premium-Zugang zu Webseiten oder Foren. Contenterstellung kostet Geld und muss bezahlt werden.
Werbung an sich ist nicht negativ
Im Gegenteil: Für alle Beteiligten (Benutzer, werbende Unternehmen und Webseitenbetreiber) kann Werbung stark positive Effekte haben:
Für Benutzer sind sie eine Möglichkeit, auf interessante Produkte hingewiesen zu werden, die sie vielleicht nicht auf ihrem Radar hatten.
Für werbende Unternehmen ist es eine Möglichkeit, Benutzer darauf hinzuweisen, was für tolle Produkte sie haben.
Für Webseitenbetreiber ist es eine Möglichkeit, den Betrieb der Webseite und die Contenterstellung zu refinanzieren.
Aber bitte wie früher, wenn ich eine Zeitschrift am Kiosk gekauft habe: Anonym: Ohne dass alle meine Daten schon beim Überblättern an anonyme Werbezwischenhändler verkauft werden.
Dass heute meine persönlichen Surfdaten für 3 Werbebanner an 7 Datenkraken weitergegeben werden, ist einfach inakzeptabel und solange das der Fall ist, kann man sich nur mit einem Adblocker schützen.
Ich habe den CSU Parteitag 2016 (Hashtag #csupt16) besucht und dabei live getwittert und zwei Videopodcasts gedreht.
Zuerst ein Podcast mit unserem Bürgermeister Thorsten Wozniak während der Antragsberatung. Im Hintergrund sieht man die Abstimmungen:
Dann hatte Doro Bär Zeit für mich:
Und das habe ich getwittert:
Natürlich hatte ich einen gewissen Standards an meine Fotos, ich hoffe, das fällt auf, dass sie sich von Smartphone-Fotos abheben. Ich habe mit der Sony A6300 fotografiert und die Bilder per WLAN aufs Smartphone übertragen und dann getwittert.
Wer sind die Delegierten? Wikipedia schreibt: „Höchstes Organ auf Landesebene ist der Landesparteitag. Der Parteitag besteht aus den Delegierten der Bezirks- und Kreisverbände und tritt mindestens einmal jährlich zusammen. Seine Aufgaben sind insbesondere die Beschlussfassung über die Grundlinien der Parteipolitik, das Parteiprogramm und die Satzung sowie die Wahl und Kontrolle der Funktionsträger auf Landesebene. Die CSU hat einen vergleichsweise niedrigen Delegiertenschlüssel: auf ca. 170 Mitglieder kommt ein Delegierter.“
52.089 Rückmeldungen zur Mitgliederbefragung, immerhin 30% online. Keine signifikant anderen Ergebnisse zwischen Online und Brief. #csupt16pic.twitter.com/xht8DpInyR
Dann die Rede von Horst Seehofer. Leider kam Angela Merkel ja nicht zum Parteitag.
Seehofers Maßnahme für die Zukunft: Bayern als erstes Land komplett schuldenfrei. Incl. Abbau aller Altschulden. Gefällt mir! #csupt16pic.twitter.com/w1zRNyTAKF
Seehofer zur Maut: Somit alle Wahlversprechen der letzten Bundestagswahl gehalten. Ich: Ganz Europa hat eine Maut -> sinnvoll #csupt16pic.twitter.com/qr8RkLQaY6
In der Tat eine Wahrheit: Vergangene Erfolge zählten oft nichts.
Seehofer: Bisherige Erfolge zählen wenig, Menschen wählen die Zukunft und von wem sie sich da Lösungen und Orientierung erwarten. #csupt16pic.twitter.com/rIJ2wYC2wI
Die arme erste Reihe, die Hälfte der Kameras auf sie gerichtet. Eine falsche Reaktion auf Seehofers Rede -> in den Nachrichten. #csupt16pic.twitter.com/2l6KXd5tg3
Was ich interessant an der langen Rede fand, waren die sehr differenzierten Töne in der Rede, die es nicht in die Medien schaffen. Ich habe versucht, zwei davon auf Twitter einzufangen:
Seehofers Kompassnadel: froh um jüdisches Leben in D nach Nazi-Barbarei. Das sind unsere Werte. #csupt16
Seit der Seehofer-Rede (und wohl noch eine Zeit lang) jetzt Abstimmung über Anträge. Das Antragsbuch hat stolze 518 Seiten. #csupt16pic.twitter.com/zslXpECQQz
Der Ausstellerbereich war interessant. Teilweise haben alle beide Seiten ausgestellt, z.B. der Bayerische Apothekerverband die wohl eher gegen Online-Apotheken sind und DocMorris, die wohl mehr Freiheiten für Online-Apotheken möchten.
Interessant ist der Ausstellerbereich beim #csupt16 und man kann ich überall gut vorstellen, was der Aussteller von der Politik will. pic.twitter.com/qMCUgv5Vq9
Am zweiten Tag wurde das neue Grundsatzprogramm diskutiert und beschlossen. In allen Bundesländern erringt die AfD mit plumpen Populismus starke Wahlerfolge und ich kann die CSU-Strategie nachvollziehen, hier auf die AfD-Zielgruppe zuzugehen. Die bisherigen Strategien in anderen Bundesländern sind ja nicht so erfolgreich gewesen.
Umgedreht sehe ich, dass sich bei der Flüchtlingshilfe vor Ort auch sehr viele CSU-Mitglieder und CSU-Wähler aktiv engagiert haben und ich beobachte, dass sie die aktuelle „unchristliche“ CSU-Linie eher verstört und sie viel mehr auf Merkel-Linie sind.
Nachdem in Bayern die CDU nicht antritt, ist wahltaktisch die Frage, ob die CSU mit der Strategie auf der einen Seite mehr AfD-Wähler zurückgewinnt, als sie an der anderen Seite an die Grünen verliert. In Baden-Württemberg haben sich die Grünen unter Winfried Kretschmann ja erfolgreich als wertkonservative Alternative etabliert.
Inhaltlich stört mich am Grundsatzprogramm v.a. die Forderung „soll die Bundeswehr auch außerhalb der Katastrophenhilfe im Innern zum Einsatz kommen können“ -> dafür haben wir die Polizei und wenn sie dafür nicht gut genug ausgestattet ist, dann muss die Polizei besser ausgestattet werden. Zumal die Bundeswehr im Moment weltweit sehr viel zu tun hat und sich auf diese Aufgaben konzentrieren soll (und auch dafür ordentlich ausgestattet werden muss). Siehe auch https://www.tagesschau.de/inland/polizei-bundeswehr-trennung-101.html
Was im Grundsatzprogramm wichtig und richtig ist:
„Bildung ist mehr als Wissen. Bildung heißt nicht nur Lernen, sondern vor allem auch Verstehen. Auf Erwerb und Stärkung von Kompetenzen kommt es an: beim Umgang mit Medien, Daten und Algorithmen ebenso wie bei Sozialkompetenz und kulturellem Verständnis.“
„Die Digitalisierung verändert alles. …. Ein digitaler Aufbruch ist nötig, um beim nächsten Wirtschaftswunder dabei zu sein.“
„Wir wertschätzen die Leistungsträger. Arbeitnehmer, Unternehmer, Selbstständige, Freiberufler und Landwirte: sie alle übernehmen Verantwortung für sich und andere und dienen damit der Gemeinschaft.“
„Wir wollen ein Klima der Gründerfreundlichkeit schaffen und den Gründergeist fördern: Nur wenn wir Neues wagen, können wir Zukunft gewinnen.“
„Leistungsfähige Telekommunikations- und Breitbandverbindungen sind in der Gigabit-Gesellschaft genauso Lebensadern für ein Land wie Verkehrswege, Transportmittel und Stromnetze.“
„Medienkompetenz ist Grundvoraussetzung für soziale, berufliche und gesellschaftliche Teilhabe.“
So, das war der CSU-Parteitag 2016. Ich fand es hochinteressant, das mal live zu erleben: Reden in voller Länge zu hören. Wie umfangreiche Abstimmungen und Diskussionen strukturiert werden. Wie das Außenrum ist. Ich kann jedem nur ein Besuch empfehlen!