Posts of category: Web

The first change in the Twitter API is active since a few days, what means, that third party clients has only periodical access to several APIs (Site Stream and User Stream) this week, which will shut down finally on 08/23. The DirectMessage-API may exist until 17th of September and one week before there will be the new API-Restrictions and new rules for the development of apps come into effect, which will make it even more difficult for the unofficial clients.

Sure you can beg to the support team, that your own app become the actual limits, but this is so nicely worded, that the exception is only for the actual version of the app. If there will be a new version e.g. of Tweetbot there will only be the new limits in effect. And this will become the end of Tweetbot & Co.

I have not really a clue, why Twitter is behaving in such a way and ignores the wishes of their users. I think, it is about the maximizing of advertising income and paid tweets, they don´t show in the 3rd party apps. Twitter seems to be orienting on Facebook, when it comes to reshaping its streams. The in the beginning chronological timeline in the webview and in the official app was destroyed because of algorithms and advertising, so that they are unusable.

I have a look on Mastodon since a few days, which have a comparable concept like Twitter, but is only a piece of software in the first place, that can everyone use to build your own instance. The Mastodon-Instances could communicate among themeselves, but could be blocked, if there is an instance that send spam.

The idea behind is tempting and the many instances of Mastodon were overrun by opening accounts after the announcement from Twitter. Nevertheless are there too few users on the instances at this time, so that there is a comparable feeling like with Diaspora. Diaspora was born with a similar approach against Facebook back then, but have in the time of nearly eight years since the beginning not break the marking of more than one million users.

Yesterday I´ve read the comment on Heise about dying of RSS with wonder. How often has RSS already died? With the loss of Google Reader in the middle of 2013 was RSS brought to grave. Sure, this was a big break and since then RSS or the clients are not developing much. Also the development of my favourite client Fever was dropped.

But in my filter bubble is RSS not dead. My lawn is dead, as you can see in the photo above. RSS was not successful in his form, but the idea behind is not more as the subscribing of an Facebook channel, only that you will get a filtered version and not the articles in a chronolocial order.

Maybe there must be more advertising for RSS? I am developing a TYPO3 extension since a few time, which has similiar features like Fever. Because Fever was the best solution for me. It was self hosted, the data stayed with me and there were apps on iOS (and Android probably too) that could connect to the Fever API.

The articles from me can be fetched via RSS by the way. You can get the german articles under the url https://www.insomniaonline.de/feed and the english translation under https://www.insomniaonline.de/en/feed.

 

Twitter hat die maximale Zeichenanzahl von Tweets verdoppelt. Von 140 auf 280 Zeichen. Und alle drehen durch. Wenn ich ehrlich bin, hat es mich schon immer gestört, nur so wenig Zeichen zur Verfügung zu haben und musste auch schon mehrfach, Texte auf mehrere Tweets aufteilen. Und jetzt hat man halt 280 Zeichen zur Verfügung, was in meinen Augen jetzt kein großer Bruch mit dem Kern des Dienstes zu tun hat, sondern schlicht und einfach mit den verschiedenen Sprachen.

Klar haben chinesische oder japanische Nutzer jetzt noch viel mehr "Platz" und können wahrscheinlich ganze Romane in einen Tweet packen. Aber deutschsprachige Tweets können ab sofort sorgfältiger ausformuliert werden und vielleicht wird damit nicht weiter eine Kunstsprache erzeugt, wie man es in den letzten Jahren beobachten konnte.

Was ich nur nicht ganz verstehe, ist, warum es Twitter nicht schafft, seinen Dienst zu professionalisieren. Und vielleicht ein Fremium-Modell einzuführen. Die API, die 3rd-Party-Clients verwenden müssen, ist beschnitten und erlaubt unter anderem nicht den Zugriff auf Votings und ähnlichem. Warum schafft es Twitter nicht, für einen gewissen Betrag, Usern die Möglichkeit zu bieten, die komplette API in ihren Clients zu verwenden. Gepaart mit der Möglichkeit zahlende User von nichtzahlenden Usern unterscheiden zu können. So könnte man auch diesen unsäglichen Spam-Bots ein wenig Einhalt gebieten. Man möchte ja nicht für 1000 erstellte Spambots fünf bis zehn Euro zahlen, wenn man dann auch noch schnell geblockt wird.

Twitter ist für mich das mittlerweile einzige Social Network, dass ich aktiv verwende. Facebook ist einfach unbrauchbar geworden, Instagram hat mich nicht gepackt, da das anfängliche Bildformat einfach zu grausam war und Accounts viel zu viel mit Hashtags um sich geworfen haben, um massig Follower zu generieren. Twitter ist momentan noch das einzige Netzwerk, in dem ich Herr über meinen Stream und Followern bin. Ohne mit Werbung zugebombt zu werden und ich das Gefühl habe, dass es eigentlich keinen Einfluss hat, was ich so zu sehen bekomme.

Mit der Sicherheit ist das ja so eine Sache. Eine vollkommen zufriedenstellende Sicherheit kann es meiner Meinung nach nie geben. Schon gar nicht im technischen Umfeld. Dafür verändern sich die Ausgangslagen einfach zu schnell. Was heute noch als sicher gilt, kann morgen schon geknackt sein.

Bis vor kurzem habe ich meine SSH Keys in macOS unter dem bekannten Verzeichnis ~/.ssh unterhalb meines Benutzerordners gespeichert und war nur gezwungen auf jedem Endgerät, dass ich genutzt habe, diese auch vorrätig zu haben. Ich verwende mehrere SSH Keys: Privat, Arbeit und auch muss ich mir aus logistischen Gründen diverse Keys mit anderen Leuten teilen (Deployment auf Server). Bis jetzt habe ich die ganzen Keys in ein verschlüsseltes Disk-Image in einen Cloud-Service gepackt, um immer Zugriff auf die Schlüssel zu haben.
Das die Schlüssel aber, obwohl alle immer noch mit einer Passphrase abgesichert sind, quasi offen auf meinen Rechnern "herumliegen", habe ich nach einer Lösung gesucht, um dieses Verfahren transportabler zu gestalten.

Dieser Artikel von Tammer Saleh ist mir unter die Augen gekommen und seitdem trage ich meine Schlüssel in einer verschlüsselten Partition auf einem USB-Stick mit mir herum. Das Skript sorgt dafür, dass diese für eine definierte Zeit dem SSH Agenten zur Verfügung gestellt werden. Nervig ist nur, dass ich beim Import-Vorgang für jeden Schlüssel die Passphrase (die sich unterscheiden) eintippen muss. Bei ein paar Schlüsseln kann das schon etwas ausarten.

Der Frühling ist da. Sagt mein Körper. Und geht mir seit Tagen auf die Nerven, indem er mich total lahmlegt. Grippegefühl, Fieber, Muskelschmerzen und die Lunge tut weh. Allergiker kennen sowas. Nicht-Allergiker schauen einen immer unverstanden an. So von wegen "ist doch nur Frühling?". Egal, mal wieder zu nichts gekommen, noch nicht mal zum Zocken. Mit Kopfschmerzen und einer Reaktionszeit eines schmelzenden Gletschers kommt man Computerspielen nicht weit.

  • Kleiner Rand über Docker Die technischen Probleme kann ich so zwar nicht nachvollziehen, die Hürde Docker in einem relativ kleinen Entwicklungsteam, das überwiegend Websites oder Teile von Websites entwickelt, ist aber viel höher als der Nutzen.
  • Passwort-Apps auf Android und ihre Lücken Ein Team des Fraunhofer Instituts für Sichere Informationstechnologie hat mal die gängigen Passwort-Manager-Apps auf Android-Basis auseinandergenommen. Jetzt hätte ich gerne mal so ein Dossier für iOS-Apps. Danke.
  • Schöne Anleitung zum Deployen per FTP und Bitbucket Pipelines Boah, FTP, da bekomme ich immer noch Gänsehaut, warum das im 21. Jahrhundert scheinbar immer noch die gängige Methode ist, um sich mit Webspace zu verbinden. Schlimm das. Die YAML-Konfiguration kann man sich aber auch einfach auf SSH zurechtbiegen.
  • git flow als einfaches Branching-Model Kleine Teams brauchen geringen Overhead beim Entwickeln. Wenn man dann eigentlich noch einen Manager fürs Versionieren und Deployen brauchen würde, was zwar eigentlich sinnvoll wäre, würde das Budget kleinerer Projekte nicht mehr reichen.
  • Ein weiteres einfaches Branching-Model für git Ich habe es mir noch nicht durchgelesen, aber beim Überfliegen habe ich es so verstanden, dass immer im Master entwickelt wird. Das ist für mich keine Option, weil mein Deployment auf gewisse Branches aufsetzt. Wenn in diese gepushed wird, wird das entsprechende Deployment ausgelöst und der Master-Branch ist halt gleichzusetzen mit dem Stand im Livesystem.
  • Kleines und feines Best Practices in Extbase Oliver Klee hat sich die Mühe gemacht und eine Menge Tips und Tricks zum Entwickeln in Extbase zusammengestellt. Kann man einiges lernen und sich für seine eigene Entwicklung abschauen.

Die letzte Woche war geprägt von Arbeit, selbst gemachtem Freizeitstress und irgendwie viel zu wenig Zeit zum Internet durchforsten oder Podcast hören. Von daher fällt die Liste recht unspektakulär und kurz aus.

  • GitKraken Ausprobiert und für gut befunden, auch wenn ich eigentlich keinen Standalone-Git-Client brauche, da mir der eingebaute Client in PhpStorm reicht. Ich werde dem Kraken aber die nächste Woche mal an seiner Stelle verwenden, vielleicht hat er ja das ein oder andere Feature, was mir mehr zusagt.
  • Anleitung zur Integration des CKEditors in TYPO3 Ich habe leider noch überhaupt keine Zeit gehabt, mir den neuen WYSIWYG-Editor von TYPO3 anzuschauen, obwohl ich den alten RTEHtmlArea mit aller Inbrunst hasse. Auch mal für nächste Woche vornehmen.
  • Cloudbleed Das schlug ja ein wie eine Bombe letzte Woche, auch wenn der nächste Punkt in der Liste viel schlimmer ist. Trotzdem hatte Cloudflare monatelang einen Fehler in seinem SSL-Proxy, der nicht nur den angeforderten SSL-Traffic zum Client auslieferte, sondern auch Teile des SSL-Verkehrs anderer User. Wenn da jemand sich die Mühe gemacht hat über diesen Zeitraum brav mitzusniffen, dürfte jemand jetzt über eine Menge Rohdaten mit Passwörtern und Kreditkarten-Informationen verfügen.
  • Zwei gleiche Hashes darf es nicht geben Ich habe es jetzt nicht überprüft, aber in der dunklen Erinnerung haben früher ziemlich viele Systeme ihre Hash-Verfahren auf SHA1 basieren lassen. Seit Jahren ist dies aber auf dem absteigenden Ast und wird durch andere Verfahren wie RSA ersetzt. Zum Glück.
  • Ist Zelda 1 das bessere Zelda? Ein Video, in dem erörtert wird, dass das erste Zelda das bessere Zelda ist. Weil es in erster Linie den Spieler nicht an die Hand nimmt, wie es fast jedes aktuelle Spiel macht. Ich sollte mir vielleicht doch einen NES Mini besorgen, um zu testen, ob das stimmt. Oder mal schauen, ob es das noch für den 3DS gibt. The Legend of Zelda habe ich zu meiner Schande noch nie gespielt.

An dieser Stelle fange ich mal an, meine Pocket-Liste zu entschlacken, in dem ich erwähnenswerte Sites in solchen Artikeln wochenweise zusammenfasse. Vielleicht gibt es ja den ein oder anderen, der auch gefallen an manchen Artikeln findet. Mich selber soll es dazu bringen, Dinge, die ich mir für später merken möchte, auch wirklich abzuarbeiten. Und sei es nur, sie einfach ungelesen zu löschen.
Den Anfang machen folgende Artikel:

Gerade eben hat der Twitter-Account von netzpolitik den Tweet des AkkuratenWiderstands retweetet, der auf eine Aktion namens FakeDataDay hinweist. Diese Aktion soll dienen, "falsche" Spuren im Netz zu legen. Man soll fehlerhafte Informationen in seinen sozialen Netzwerken posten, um die Auswertungsalgorithmen durcheinanderzubringen und sich dadurch "unschärfer" machen.
Natürlich am Besten mit einem vom Initiator gewählten Hashtag und am Liebsten noch mit einem Link zur Aktion.

Vielleicht mag die Intention wirklich sein, die unbedarfte und noch nicht aufgeklärte Masse aufzuwecken und der Problematik des Umgangs mit den eigenen Daten und dem Thema Datensparsamkeit näher zu bringen. Nur erschliesst sich mir das Ganze einfach nicht und ich halte die ganze Aktion für Linkbait bzw. Erhaschen von Aufmerksamkeit. Wenn ich selber die Intention habe, andere Leute über eine Problematik (und die streite ich gar nicht ab) aufzuklären, dann sollte ich doch nicht die gleichen Systematiken benutzen, die ich anprangere, oder sehe ich das falsch? Angefangen von der Umsetzung des Blogs (Wordpress, Akismet, Einbindung von Google-Webfonts, Mailchimp als Newslettersystem) bis hin zu dem recht komischen Daten-Ausspäh-Beispiels der Mitinitiatorin, in dem sie die Befürchtung hat, dass die Mitbewerber ihre Unternehmenskommunikation ausspähen könnte, kann ich die Idee hinter der Aktion zwar nachvollziehen, die Umsetzung halte ich aber für hundsmiserabel.

Ich finde es auch bedenklich, was man mit persönlichen Daten anstellen kann. Und ich finde auch, dass der 0815-Benutzer des Internets eine gehörige Portion Aufklärung nötig hat, um nur in Ansätzen zu verstehen, dass sein Verhalten Folgen haben kann. Aber auf der anderen Seite kann ich auch verstehen, dass der normale Benutzer von sozialen Netzwerken gar keine Lust hat, sich damit zu beschäftigen. Er sieht nur den Nutzen, den er aus der Funktionalität ziehen kann und verfällt meistens in die Argumentation, dass es ihm egal ist, was mit seinen Daten passiert, weil er ja sowieso nichts zu Verstecken hat. Sollen die da oben nur mal machen!

Wie gerne würde ich mit meinen "normalen" Freunden verschlüsselt kommunizieren. Und den ein oder anderen kann man sogar mit der Idee anfreunden. Nur, wenn man dann auf die Umsetzung zu sprechen kommt und ihnen erklären muss, dass das Verschlüsseln diverse Unannehmlichkeiten mit sich bringt, springen alle wieder ab. Was ich auch verstehen kann. Es ist vom gefühlten Kosten-/Nutzen-Faktor zu mühselig, seine Kommunikation zu verschlüsseln oder auf seine Daten besser aufzupassen. Und genau hier müsste man ansetzen und nicht mit so einer Linkbait-Aktion wie dem FakeDataDay.