Dr. Who? Grobe Doktortitel-Recherche leicht gemacht

Doktoren laufen viele durchs Land, aber wo kommt der Titel her? Für jene deutscher Herkunft kann jeder Netznutzer selbst einen interessanten Blick erhaschen: Für einen Doktortitel ist es unter anderem Nötig eine Dissertation, also schriftliche Forschungsarbeit, zu veröffentlichen. Gleichzeitig greift auch das Gesetz, dass für Veröffentlichungen ein Pflichtexemplar an die Deutsche Nationalbibliothek geliefert werden muss. Dankenswerterweise führt diese auf ihrer Webseite einen Onlinekatalog aller Werke und Autoren. Mit Name des Doktors und ungefährem Fachgebiet lässt sich so meist die zugehörige Arbeit – und vor Allem deren Thema – schnell finden. Bei meinem kurzen Test konnte ich von hochgradig Fachspezifischen Titeln bis zum Themenniveau der statistischen Lieblingsfarbe von Gebrauchtwagenkäufern alles finden. Wie man die Titel bewertet muss jeder selbst entscheiden, passende BINGO-Zettel werden partiell empfohlen 😉

Liebe iPhone-Tracking Panikmacher und Kleinreder…

…kommt mal wieder auf den Boden der Tatsachen. Ja, wir wissen es langsam: Die Apple-Ziegelsteine zeichnen Standorte der Nutzer auf und schicken diesen an Apple. Im Netz bildeten sich schnell die zwei üblichen Lager: Die Gruppe, die das ganze zum Weltuntergang hochstilisieren und die Gruppe der Fanboys, die Kritik an ihrem Gerät nicht zulassen können.

Erst mal sollten wir eins festhalten: Diese Erkenntnis ist nicht wirklich neu: Schon letzten Sommer ging das ganze durch die Medien – nur war das Interesse offenbar zu gering. Wer jetzt meint sich groß über diese Tatsache aufzuregen sollte sich mal an die eigene Nase fassen und überdenken, warum er erst jetzt davon Kenntnis erlangt.

Auf der zweiten Seite finden sich immer mehr Leute, die versuchen das Problem aus der Welt zu reden: Telefone müssten ja technisch bedingt immer geortet werden, man würde mit den aktuellen „Social Media“-Diensten mehr Standortdaten preis geben und andere Hersteller würden ebenfalls diese Daten sammeln.

Zur Technik muss ich mit einem klaren „jein“ antworten: Zwar müssen die Netzbetreiber wissen in welcher Funkzelle sich das Handy befindet, die angekreideten Daten gehen aber weit über die technische Notwendigkeit hinaus. Eine Funkzelle hat meist mehrere hundert Meter Umfang, die hier zur Diskussion stehenden Daten enthalten aber neben dieser Zelle auch Informationen aus GPS-Signalen und eine Liste nahe gelegener WLAN-Sendestationen, damit ist der Standort auf wenige Meter bestimmbar.

Das Social-Media-Argument würde ich hier als irrelevant einstufen: Natürlich veröffentlicht man über 4Square, Latitude & Co wesentlich genauere Daten an eine große Nutzerbasis, allerdings freiwillig – man selbst kann entscheiden wann man seinen Standort preis gibt.

Korrekt ist die Aussage, dass auch andere Geräte diese Daten sammeln. Vor allem Google hat diese Technik bereits vor Apple großflächig angewendet: Telefone mit Android und viele Windows-Geräte des Herstellers HTC erheben und nutzen einen ähnlichen Datenbestand. Der Unterschied zu Apple: Die Daten werden nicht über einen Längeren Zeitraum auf dem Gerät gespeichert, zudem war – auf meinen Geräten – die Sammelfunktion standardmäßig abgeschaltet bzw. man musste bei der Einrichtung bestätigen, dass man diese Nutzen möchte. Aber auch, wenn es alle machen: Wird dadurch das Risiko geringer?

Warum die Daten? Für den Nutzer bringt die Aufzeichnung in erster Linie mehr Komfort: Über die so erstellten Datenbanken kann das Gerät schneller, stromsparender und genauer seine Position bestimmen und so z.B. Standortrelevante Suchergebnisse oder z.B. den passenden Wetterbericht bieten. Im Gegenzug wird der Hersteller die Daten vermutlich nutzen, um seine Werbekunden besser zu bedienen: Wenn ich plötzlich statt in München in Berlin auftauche und mit dem Telefon Sehenswürdigkeiten suche zahlen Anbieter von Stadtrundfahrten sicher einen schönen Betrag für diesen Aussichtsreichen Werbeplatz. Zudem gibt es das Risiko, welches jede Datenspeicherung birgt: Die Daten können in die falschen Hände geraten – und was ihr Chef sagt, wenn sie mit dem Firmenwagen einen Umweg über zwielichtige Stadtviertel nehmen kann sich jeder selbst ausmalen.

Mir ist es prinzipiell egal, ob Hersteller solche Daten erheben oder nicht, ich möchte aber selbst bestimmen ob und wann die Erhebung statt findet, die Daten kontrollieren können und nicht durch fadenscheinige App-Voraussetzungen zur Nutzung gezwungen werden. Der Nutzer sollte das Gerät kontrollieren, nicht umgekehrt.

Titanium Backup über ADB starten

Tja, pech gehabt – soeben hat sich mal wieder meine Android-Installation zerlegt – SD-Karten sind nunmal nicht als Systemdatenträger geeignet. Nach dem Lockscreen zeigt sich nur die Meldung, dass der Prozess „acore“ beendet wurde. Kein Homescreen, kein Startmenü. Im Log: I/O error einer Datenbank – nicht nett… Vor einer Neuinstallation würde ich natürlich gerne die Daten sichern, aber wie? Ohne Programmmenü lässt sich das von mir verwendete Titanium Backup nicht starten – oder doch? Wenn USB-debugging aktiv ist lässt sich über ADB einiges retten: Einerseits kann man auch ohne Recovery-System Daten des Systems direkt wegsichern – unter Windows auch Grafisch mit dem Programm „DroidExplorer“, für Linux bastel ich gerade dran. Sicherer fühl ich mich aber eher mit Titanium Backup – das Tool weiß eher was wo zu sichern ist. Android.pk brachte mich auf den richtigen Weg: Über „adb shell“ erhält man einen Konsolenzugang auf das Telefon, mit dem Befehl

am start -a android.intent.action.MAIN -n com.keramidas.TitaniumBackup/.MainActivity

kann man die App manuell starten und auf dem Telefon wie gewohnt seine Daten wegsichern. Nutzer der Free-Version sollten jedoch wenn vorhanden vorher ältere Backups sichern, andernfalls werden die Backups – ggf. mit defekten Daten – überschrieben.

Landebahn Atomkraftwerk?

Die Ereignisse in Fukuschima haben sie wieder auf den Plan gerufen: Verzweifelte Versuche der Regierung die Bevölkerung von der Sicherheit deutscher Meiler zu überzeugen. Ein „Stresstest“ soll mögliche Lücken der Sicherheitssysteme aufdecken. Schönstes Neusprech: Eigentlich sollte doch die Sicherheit im Störfall von Interesse sein – das Funktionieren unter Stress, also Druck, hätte ich bisher als Grundvoraussetzung für ein Kraftwerk dieser Technik angesehen. Schaut man sich die Medienberichte an geht es gleich weiter: So oft wie hier von Moderatoren, „Experten“ aber auch Politikern die mehr oder weniger sanfte Landung eines Flugzeugs beschreiben wird könnte man meinen, dass unsere AKWs nebenbei als Flughafen Verwendung finden. Meines Wissens gab es nur eine – EINE – Anschlagsserie in der Flugzeuge als Waffe verwendet wurden. Warum wird sich hier so auf dieses Thema versteift? Ist es nich am Ende egal ob hier ein Flugzeug, die ISS oder ein Asteroid einschlägt? Mich interessiert es nicht, ob das Reaktorgebäude einem Flugzeug stand halten könnte – mich interessiert ab welcher Belastung es eben das nicht mehr kann. Dabei ist es mir auch egal vor wo die Bedrohung kommt – Erdlöcher sind ja in Mode und wenn ein Kuhfladen ungünstig vor der Einsaugvorrichtung des sekundären Kühlkreislaufs landet sollte auch dieses Gefahrenpotential bekannt sein. Zudem ist spätestens jetzt bekannt, dass man auch die indirekten Folgen berücksichtigen muss. Ebenso wie der Tsunami nach einem Erdbeben kann auch die Aschewolke nach einem Vulkanausbruch eine Gefahr darstellen. Aber dies wird vermutlich nicht geprüft: Im Augenmerk der Politik sind „Terroristische Gefahrenquellen“ – was kümmern uns auch natürliche Phänomene? Vulkanausbrüche, Klimaerwärmung, Dürre, Stürme oder Erdbeben können den deutschen Qualitätssystemen sicher prinzipbedingt nichts anhaben – eventuell ist das ja sogar gesetzlich verboten. Letztendlich ist ohnehin die Politik ausschlaggebend: Wie viele Risiken wollen wir für die Stabilisierung der Strompreise einsetzen?

BitBastelei #6: Kinderspielzeug-Hacking – USB-Anschluss für Burgerking-Lampe

BitBastelei #6: Kinderspielzeug-Hacking - USB-Anschluss für Burgerking-Lampe

(59.7 MB) 00:08:49

2011-03-26 04:29 🛈

Was macht man, wenn man als Bastler Kinderspielzeug geschenkt bekommt? Zerlegen und Verbessern! Nun hat der kleine Burgerking-Anstecker mit LED einen USB-Anschluss und kann z.B. neue Mails anzeigen!

Ergänzende Hinweise:
Die gezeigte Schaltung arbeitet mit 5V auf den Daten-Pins – dies entspricht nicht dem Standard und funktioniert eventuell nicht überall. Ggf. kann man wie hier unter B beschrieben Zener-Dioden zwischen Datenleitung und GND schalten.

Bild: https://www.adlerweb.info/blog/wp-content/uploads/2011/03/bk-usb-150×150.png

Die Software gibt es unter https://adlerweb.info/files/avr/bk-led/bk-led.tar.bz2 – wie bereits im Video erwähnt handelt es sich im Prinzip nur um das „hid-custom-rq“-Beispiel des Herstellers. Die Original-Lib gibts auf http://www.obdev.at/vusb/

Wo bleibt eigentlich die Twitter-Revolte?

Frueher habe ich soziale Netze nur in sehr geringem Umfang genutzt. Gerade Full-Feature-Netze wie Wer-kennt-wen haben mehr Probleme verursacht als Nutzen gebracht, denn viele Nutzer ohne technischen Hintergrund verstehen die Einschränkungen solch geschlossener Systeme nicht. Zu oft musst ich mir Gemaule anhoeren, dass ich auf dies und das nicht Reagiert haette. Wie sollte ich auch? Wer nicht einen passenden Webbrowser finder und auf die Webseiten schaut hat keine Chance zu erfahren, was innerhalb des Netzes vor sich geht. Mit Twitter hatte sich dies vor einigen Jahren geändert. Anfangs nur als Liveticker zu besonderen Ereignissen konnte sich der Microbloggingdienst in meiner Gunst immer weiter hoch arbeiten. Keine erzwungene Datenangaben, eine klar strukturierte Webseite ohne unnoetigen Ballast und vor allem eine offene Programmierschnittstelle. Dank der vielen Bots, Clients und Tools war es mir ueberlassen was ich mit den Daten hinter Twitter mache. Schnell waren die ersten RSS-Feeds auf Twitter und der Client Marke eigenbau brachte am PC Meldungen zu besonder interessanten Verfolgten. Auch viele Clients von Drittanbietern entstanden, so konnte der Dienst schnell und einfach sogar auf dem Handy genutzt werden. Nur ein Punkt stoerte mich an Twitter: Twitter. Die zentralistische Bauweise koennte ein Problem werden.

Vor gut einem halben Jahr zeichneten sich dann erste dunkle Wolken am Twitter-Himmel: Die Betreiber schalteten die Basic-API ab und erlaubten fortan Drittanbietern nur noch ueber OAuth zu kommunizieren. Was fuer die Nutzer ein Plus an Sicherheit bietet hat fuer Programmierer einen gewaltigen Schwachpunkt: Der Betreiber hinter Twitter bestimmt wer die API nutzen darf. Ohne Registrierung laeuft nichts mehr.

Kurz drauf saegte Twitter am naechsten Standbein: Die Webseite wurde „modernisiert„. Statt simpler und funktioneller Bauweise begruesst einen nun ein Javascript-Monster, welches auf vielen PCs unbenutzbar ist. Auch bei den Clients hat sich etwas getan: Twitter kaufte einige der Hersteller von Twitter-Clients und bot fuer einige Systeme eigene Clients, welche jedoch eher durch Fehlfunktionen und fehlende Funktionen auf sich aufmerksam machten und einige Diskussionen bei Entwicklern ausloeste. . Stoeren tat es die User eher nicht: Er entschied selbst was er nutzen wollte.

Vor einem Monat folgte das boese Erwachen: Nutzer der Clients Ubertwitter und Twidroyd konnten sich ploetzlich nicht mehr anmelden. Was erst nach einer technischen Stoerung aussah war Absicht: Twitter hatte den API-Zugang gesperrt – offiziell wegen diversen Regelverstoessen wie Datenschutz und Markenrecht. Eine genaue Begruendung wurde meines Wissens bis heute nicht geliefert. Nach einigem Hin und Her wurde der Zugang wieder freigegeben.

Heute machte dann eine Pressemitteilung die Runde: Twitter moechte seine Nutzer vor „Verwirrung“ schuetzern und eine „consistent user experimence“ schaffen. Es wurde deutlich gemacht, dass Clients von Drittanbietern unerwuenscht seien, ein ueberarbeitetes Regelwerk stellt klar, dass API-Nutzer nen keinen eigenen Client mehr bauen duerfen. Ein unverschaemter Schritt in meinen Augen, denn einerseits moechte ich als Nutzer bestimmen wie ich die Inhalte lesen moechte und andererseits waere Twitter ohne die Arbeit der Drittanbieter nie in seine jetzige Stellung gekommen.

Und nun? Ich hoffe, dass bald wieder Vernunft einkehrt. Es ist ja nicht falsch daran Nutzern eine einheitliche, offizielle Oeberflaeche zu bieten, aber lasst mir die Wahl auch etwas anderes Nutzen zu duerfen. Ich moechte den Twitter-Machern noch eins auf den Weg geben: Twitter ist im Endeffekt ein Kurznachrichtendienst, XMPP (Jabber) viele der Funktionen bereits Heute ebenfalls bedienen – frei und dezentral. Es fehlt nur an den noetigen Clients und da Twitter qualifizierte Entwickler offenbar vertreiben will sollten sich da auch welche finden lassen. Ich fuer meinen Fall sehe fuer mich keine Zukunft fuer Twitter, wenn man versucht mir beschraenkte, instabile, geschlossene, werbeverseuchte und verbuggte Software aufzuzwingen. Free the API…

Update:
– Ja, es gibt identi.ca und thimbl.net – müssen natürlich auch erwähnt werden 😉

[Fotos] CeBIT 2011 – Technik, Spielzeug und eine schlecht gelaunte Kanzlerin

Das meiste zur CeBIT ist in den diversen Messe-Specials ja zur Genüge zu lesen, daher Beschränke ich mich auf ein paar Bilder, die neben dem Prospektesammeln entstanden sind. [Gallery]

2GB-Files ext4,xfs,btrfs Benchmark

Da ich derzeit meinen Server aufrüste stellt sich unter anderem die Frage nach dem Dateisystem. Für Root & Homes habe ich bereits auf anderen Systemen ext4 seit längerem im Einsatz, für meine Video-Partition war ich aber nicht ganz sicher. Auf dieser liegen Rohdaten z.B. meines Podcasts oder von Konvertieren von VHS etc, also viele große Dateien. Bisher durfte sich xfs um die Dateien kümmern, mit ext4 soll aber nun xfs Konkurrenz bekommen haben. Da die meisten Tests recht allgemein gehalten waren musste ein eigenes Script ran. Zusätzlich zu xfs und ext4 habe ich noch ext4 mit aktivem „nobarrier“ sowie btrfs getestet. System ist ein AMD Opteron 2358 (Quad 2,4GHz) mit 4GB RAM, Storage ein 3-Disk RAID5 mit ~235MB/s Durchsatz bei hdparm -t.

I/O-Performance

Erst ein Blick auf lesen, schreiben, simultanen Lese-/Schreibzugriffen und löschen. Datenquelle fürs schreiben war ein tmpfs, lesen ging auf /dev/null:

write read rw del
ext4 84,4 114,0 49,3 1.941,5
ext4nb 83,1 197,0 29,9 10.077,5
xfs 54,6 207,0 29,9 109.462,1
btrfs 86,0 200,0 51,9 2.006,6

Wie man sieht hat bei Schreibzugriffen btrfs die virtuelle Nase knapp vor den ext4-Varianten, xfs ist gut ein Fünftel langsamer. Wenns ums Lesen geht kann xfs deutlich punkten, auch wenn btrfs hier knapp dran ist. Der Ausrutscher von ext4 mit Barriers mach für mich zwar keinen Sinn, war aber reproduzierbar. Bei parallelen Zugriffen spielt btrfs wieder sein Asse aus, ext4 mit Barriers ist aber knapp dahinter. Xfs leidet hier unter der schlechten Schreibperformance, Ext4nb – tja, gute Frage… Beim Löschen zahlt sich das XFS-Design wieder aus: Löschen geht fast zehn mal schneller als bei ext4nb – mit Barriers macht ext4 jedoch eine eben so schlechte Figur wie btrfs.

Schaut man nur auf die (theoretischen) Zahlen zeigt sich btrfs schon jetzt als klarer Sieger, jedoch ist es noch in der Entwicklungsphase und kann entsprechend zu Stabilitätsproblemen führen. XFS hält sich bei großen Dateien noch knapp vor EXT4 ohne Barriers, mit Barriers ist die (hier) mangelhafte Lesegeschwindigkeit nicht entschuldbar.

Praxis
Da ich noch ein paar Sachen zu schneiden Habe einfach mal ein Praxistest: Jedes Dateisystem bekommt eine Rohdatei (2GB +/- paar MB) von einem tmpfs drauf kopiert, diese wird erst geprüft (md5sum) in ein anderes Containerformat konvertiert, danach wird von der neu erstellten Datei erneut eine MD5-Summer erstellt, im Anschluss greift eine vorbereitete Schnittliste und speichert eine geschnittene Version. Zum Abschluss wird die Quell- und Zwischendatei gelöscht. Alles nahezu reine I/O-Operationen, da nichts umcodiert werden muss.

ext4nb

xfs

btrfs

ext4

Dateisystem Zeit in Sec.
171
174
187
199

Wie man sieht kann btrfs seinen theoretisch deutlichen Vorsprung nicht halten und fällt auf Platz 3 – hier fehlen wohl noch die nötigen Optimierungen um in der Praxis die guten I/O-Werte auszuspielen. ext4nb schafft es auf den ersten Platz, dicht gefolgt von xfs. Ext4 mit aktiven Barriers, welche auf druck der Community nun Standard sind, liegt auch in diesem Test abgeschlagen auf dem letzten Platz.

Fazit
Wenn es um große Dateien geht sind ext4 ohne Barriers und XFS nahezu gleich auf. XFS ist jedoch fast 14 Jahre älter und ist daher als stabiler anzusehen, zumdem nutzt es vorhandenen Speicherplatz besser aus. Die technischen Grenzen der Dateisysteme sind für aktuelle Rechner eher uninteressant, jedoch unterstützt nur ext4 das nachträgliche verkleinern einer Partition.

Ich für meinen Teil werde für große Dateien damit bei XFS bleiben.

Pille Palle Pumm – Wer Paypal fragt bleibt dumm

Und auf gehts zu einem kleinen Tauchgang in die Abgründe des Paypal-Supports. Vorausgegangen war eine Differenz mit einem Käufer, welcher ohne den Abschluss einer Sendungsverfolgung abzuwarten Geld über PayPal zurückgebucht hatte (obwohl er eigentlich das Versandrisiko tragen müsste, da er explizit unversicherten Versand gewählt hatte). Im Endeffekt wäre die Sache für mich wegen des kleinen Betrags gegessen gewesen: Ich hätte wie schon die letzten 5 Jahre Paypal nur zum Einkauf benutzt und nach diesem missglückten Versuch zu meiner eigenen Sicherheit nicht mehr als Zahlungsmethode bei eBay angeboten. Die Rechnung habe ich aber ohne Paypal gemacht: Diese berechneten kurzerhand ein paar Cent Bearbeitungsgebühr und violá: Mein Konto, welches normal konstant bei 0EUR ist (nach einem Einkauf leitet Paypal automatisch eine Lastschrift (ELV) ein und gleicht das Konto aus), befindet sich nun im Minus. Keine weiteren Einkäufe möglich. Natürlich wollte ich das Konto schnell wieder ausgleichen, der zugehörige Button zeigt dabei aber nur eine einzige Zahloption: Manuelle Banküberweisung. Diese Methode verursacht bei mir immer wieder einen Würgereitz, denn meine Banken haben einerseits etwas seltsame Sicherheitsvorstellungen welche Onlinebanking nahezu unmöglich machen – andererseits haben die Fillialen geschlossen, wenn ich Feierabend habe. Für mich keine Chance eine Überweisung zeitnah durchzuführen.

Erster Gedanke? Warum nur diese Zahlungsmethode – sonst steht doch eine ganze Batterie zur Verfügung? Lastschrift, Kreditkarten, Giropay, etc. Es folgte ein Schriftverkehr mit dem Paypal-Support, welcher es stilgerecht schaffte mir unzusammenhängende und falsche Textblöcke per Mail zu liefern – immerhin grob Themenbezogen. Meine eigentliche Frage: Warum ist es nicht möglich Paypal-Bearbeitungsgebühren per ELV zu begleichen. Ich schlüssel hier mal einige schöne Ausschnitte auf:


Die Erste Antwortmail begann mit diesem Abschnitt:

…Nach Durchsicht Ihres PayPal-Kontos konnte ich feststellen, dass Sie am
xx versucht haben, die Summe in Höhe von xx EUR per
Lastschrift zu senden, was Ihnen jedoch nicht gelungen ist…

Dies war gleichzeitig auch der erste WTF-Moment: Diese Zahlung hatte ich in meinem Schreiben nicht erwähnt – warum auch, sie wurde vor dem Problem getätigt und war zum Zeitpunkt der Mail bereits beim Empfänger korrekt angekommen. Auch auf der Paypal-Seite stand alles auf OK und der Betrag wurde bereits von meinem Konto per ELV eingezogen – kein Anzeichen davon, dass hier etwas nicht gelungen sei. Ich wies den Support darauf hin, dass von meiner Seite bei der Zahlung kein Fehler erkennbar wäre und erhielt promt eine Entschuldigung samt Aussagen, welche zeigen, dass man meinen Text offenbar nicht gelesen hatte (Der Bankeinzug war ja bereits laut Bank und Paypal-Seite abgeschlossen):

…Diese wurde dem Empfänger
bereits gutgeschrieben und in den nächsten Tagen werden wir den Betrag
von Ihrem Bankkonto einzuziehen. Es tut mir sehr leid, dass mein Kollege
da etwas verwechselt hat…

Gut, lassen wir das Thema, sinnvolle Antworten sind hier wohl nicht mehr zu erwarten.


Da wir bei diesen Zahlungen in Vorkasse gehen, müssen wir
uns hier absichern und warten bis Ihre Bank den Betrag gutgeschrieben
hat.

Der Satz fällt klar unter die Kategorie „Made my day“ – einerseits wird ELV auch bei positivem Kontostand und ohne offene ELVs nicht zum Aufladen des Kontos angeboten – gerade das war ja mein anlegen. Andererseits ist des doch etwas – öhm – seltsam sich in diesem Fall auf die Absicherung zu berufen. Ein Betrag weniger Cent ist sicher wesentlich Risikoreicher als die Zahlung einige Wochen zuvor, welche mehrere hundert Euro umfasste, ohne Murren von Paypal vorgestreckt, per ELV abgerechnet und ohne Verzögerung durchgeführt wurde.


Es tut uns Leid, jedoch mit besten Willen können wir den Prozess nicht
stoppen, oder anpassen.

Hier hängt es wohl eher an Lesekompetenz und Wollen statt an können – von stoppen war nie die Rede – es war eine einfache Frage – die Begründung, warum ELV nicht möglich ist lässt sich in meinem Augen kaum mit fehlenden Sicherheiten begründen.

Wir gehen davon aus, Herr Knodt, dass bei der nächsten Zahlung ELV
wieder funktioniert.

Wir entschuldigen uns für alle Unannehmlichkeiten die für Sie entstanden
sind –und wir begrüßen sie natürlich sehr als unseren Kunden. Denn durch
unsere Überprüfung machen wir Ihren Einkauf extra sicher.

Korrekt, aber auch nur den Einkauf – lassen wir das…

Am Ende wurde mir dann noch Angeboten den Betrag postalisch zu begleichen – immerhin eine Antwort, welche grob auf meine ursprüngliche Frage passen würde, auch wenn sie nicht weiterhilft. Inzwischen habe ich aufgegeben hier eine sinnvolle Antwort zu erhalten.

Auf in dunkle Zeiten – Softwaregesteuerte Helligkeitskontrolle unter X11

Mein Netbook ist ansich ja ein praktisches Teil: Klein und leicht genug um neben dem Fernsehen ein bisschen rumtippen zu können – leider gibt es einen großen Nachteil, der anscheinend inzwischen bei vielen Geräten modern ist: Selbst auf der niedrigsten Helligkeitsstufe lässt sich mit dem Display das halbe Zimmer beleuchten – an gemütliches Fernsehn ist angesichts dieses Scheinwerfers vor der Nase nicht zu denken. Inzwischen habe ich einen kleinen Workarround gefunden: Mit der Software „xbrightness“ lässt sich die Helligkeit unter X11 auf Softwareebene verringern. Eine solche Softwarelösung führt zwar zu einem gewissen Kontrastverlust, für Web & Code ists jedoch noch erträglich.
Für Archlinux ist das Paket jetzt in AUR.

Nerd Inside