Kategorien
Essentials Freebies, Tools und Templates

Keytrac – Du kummst hier net rein!

Sicherheit ist augenscheinlich eine Selbstverständlichkeit bei Webseiten mit Loginmöglichkeit. Schließlich sollen die Daten hinter der Eingabemaske auch verborgen bleiben. Bisher haben Betreiber vor allem auf eine Kombination aus Nutzername und Passwort gesetzt. Höhere Sicherheitslevels waren nur mit umständlichen Techniken möglich. Die Software keytrac verspricht mehr Sicherheit durch die Analyse des Eingabeverhaltens. Nur der echte Benutzer soll so Zugriff erhalten. Eine Idee, die noch in den Kinderschuhen steckt.

shadows-of-byod

Die Kombination aus Benutzername und Passwort mag auf der einen Seite gewohnt und einfach sein – wirkliche Sicherheit ist dem System jedoch fremd. Kombinationen können erraten, durch einen Hack öffentlich bekannt oder von Vertrauten eingegeben werden. Die Möglichkeiten sind fast unerschöpflich, bieten aber bloß ein Sicherheitslevel, das für viele Dienste nicht ausreicht. Sicherheitskritische Anwendungen wie das E-Banking oder Administrations-Tools werden schon lange besser geschützt. Von SMS-Tans über Sicherheitsfragen bis hin zu einer Zwei-Faktor-Authentifizierung gibt es diverse Möglichkeiten. Alle sind umständlich. Mit keytrac sollen die Systeme der Vergangenheit angehören – eine fast futuristische Idee.

Integrierte Verhaltensprüfung

Viel muss nicht für die Implementation von keytrac getan werden. In die betreffende Webseite wird einfach ein kleiner Javacript-Code eingefügt, der das Tippverhalten an die Server von keytrac sendet. Anonym natürlich. Die Eingaben bleiben immer auf der einen Webseite und allein die Abfolge der Tastendrücke wird in einen kryptischen String codiert und zur Analyse geschickt. Das Ergebnis ist eine Art kryptographischer Fingerabdruck der Eingabe, der dann maschinell mit den bisherigen Anmeldeversuchen verglichen wird. Je mehr erfolgreiche Eingaben gespeichert sind, desto genauer ist die Analyse. Zurück liefert keytrac über verschiedene SDK einen Prozentwert der Übereinstimmung und der Administrator kann ganz individuell entscheiden, ab welchem Prozentwert mit möglicher Kombination anderer Faktoren eine Anmeldung abgelehnt wird. Für den Nutzer ist der komplette Prozess absolut unsichtbar.

keytrac1

Noch nicht ganz exakt

Der Ansatz ist wirklich faszinierend und leuchtet ein. Jeder kennt Menschen, die mit dem Adler-Suchsystem in unendlicher Dauer jeden Buchstaben einzeln eintippen und andere die, wie wild geworden zwar, aber mit unübertrefflicher Genauigkeit alles in die Tastatur eingeben. Und natürlich gibt es noch viele Robots, die gar nicht tippen und einfach in Windeseile automatisiert die Daten abschicken. Die Unterschiede sind offensichtlich. Die Technik jedoch ist noch nicht ganz ausgereift. Auf der öffentlichen Demo-Seite kann sich jeder selbst ein Bild machen. Bei meinen Tests war das Ergebnis nicht unbedingt zufriedenstellend. Trotz mehreren Eingaben schwankte der Wert zwischen guten 90% Trefferquote und miserablen 50% Übereinstimmung. Es scheint schwierig, da eine Grenze zu ziehen. Es sind wohl viele Faktoren, die den derzeitigen Schreibstil ausmachen. Kommt dann noch eine andere Tastatur dazu, ist fraglich, ob die Übereinstimmung auch dann noch ausreichend ist. Spannend bleibt zudem, welche Schritte ablaufen, wenn das System wirklich die eigentlich korrekte Anmeldung ablehnt. Eine implementierte Eskalationsmöglichkeit bietet keytrac direkt nicht an und so bleibt es dem Administrator überlassen, notwendige Schritte einzubauen.

Technologische Grenzen

Eine Lösung für alle Fälle kann keytrac nicht sein. Allein die Implementierung über JavaScript schließt schon einmal alle Anwender ohne aktiviertes JavaScript aus und stellt damit eine eher leichte Hürde für zweifelhafte Besucher dar, die zwar die Zugangsdaten eines Nutzers kennen, aber nicht die Eingabeverifikation überstehen würden. So empfehlen die Entwickler von keytrac eine ausschließliche Möglichkeit der Anmeldung mit aktiviertem JavaScript. Das wiederum ist für eher vorsichtige Nutzer des Internets eine zusätzliche Hürde. Auch ausgenommen von der Verifikation sind Tablets. Zu unterschiedlich sind die Eingaben über die Software-Tastatur, um wirklich Rückschlüsse auf die Echtheit machen zu können. Entweder müssten folgend alle Tablet-Nutzer von einer Anmeldung ausgeschlossen werden oder der Administrator lebt damit, dass durch diese Schwachstelle modifizierte Robots einfach Header eines Tablet-Computers senden und von der Verifikation verschont werden. Auch das ist eine Frage, die sicherlich noch die Entwickler beschäftigen wird.

keytrac2

Trotzdem wirklich clever

Die absolute Lösung mit maximaler Sicherheit ist keytrac nicht. Zu viele kleine konzeptionelle Hürden bleiben bestehen, um absolut auf die Technik vertrauen zu können. Dennoch ist keytrac eine clevere Lösung, die auf Basis von Kryptographie die Guten von den Bösen unterscheiden können kann.  Beim Einsatz der Technologie sollte jedoch jeder Administrator alle Schritte genau überdenken, damit keytrac wirklich effektiv arbeitet. Vielleicht ist keytrac dann gar keine Standalone-Lösung. Gerade in Kombination und Ergänzung mit bestehenden Systemen und Abläufen könnte keytrac punkten. Einzelne Ausreißer in der Erkennung könnten so einfacher abgefangen werden. Die Zukunft wird zeigen, ob keytrac auch andere Faktoren, wie den Standort oder Cookies mit in die Verifikation einbeziehen wird. Die Hürden sind sicherlich zu meistern und im Sinne einer korrekten Erkennung wäre der Schritt wünschenswert.

Keytrac lässt sich ab 39 Dollar pro Monat in die eigene Webseite einbauen. Sonstige Gebühren kommen nicht auf den Anwender zu. Dabei können unbegrenzt viele Benutzer gespeichert werden – das Limit jedes Tarifs sind nur die Nutzer, die sich pro Monat tatsächlich eingeloggt haben. Das ist immerhin eine ziemlich faire Preisgestaltung.

(dpe)

Kategorien
E-Business SEO & Online-Marketing

Mailversender im Überblick: mailjet, sendgrid, mailgun & Co.

Ob das Passwort vergessen, eine neue Antwort im Forum geschrieben oder eine Bestellung im Online-Shop abgeschickt wurde – fast immer schickt die verwendete Software auf der Internetseite eine kleine E-Mail. Transaktionsbasierte E-Mails nennt das der Fachmann. Bisher mussten die eigenen E-Mail-Server die Flut der ausgehenden Nachrichten verarbeiten. Seit geraumer Zeit drängen spezialisierte Anbieter in den Markt, die alles besser machen wollen.

mailbox-640

Sie heißen mailjet, sendgrid, mailgun, madrill oder postmark. Und oberflächlich betrachtet, sind sich alle Dienste sehr ähnlich. Einmal angemeldet können über das SMTP-Protokoll oder eine eigene API Mails aus Applikationen beliebig verschickt werden. Dazu bieten alle Anbieter eine Palette an vorgefertigten Paketen für diverse Programmiersprachen und Plugins für ausgewählte Softwareprodukte an. So homogen der Markt jedoch anfangs erscheint, desto genauer lohnt sich ein Blick hinter die diversen Dienste. Die Unterschiede stecken im Detail.

Mailversand: keine Raketenwissenschaft

Eigentlich braucht es für eine E-Mail nicht viel. Jeder noch so schlechte Webspace kann fast unendlich viele Nachrichten mit diversen Adressen über eingebaute Funktionen verschicken. Genau das hat dazu geführt, dass Mailprovider aufgerüstet haben. Moderne Spamfilter schlucken neben den schlechten Nachrichten jedoch auch gerne einmal Transaktions-Mails. Ärgerlich, wenn das Passwort oder die Bestellbestätigung im Filter landet. Nicht weniger schlimm ist es indes, als Anbieter vom Nutzeraufkommen überrollt zu werden und durch einen wild gewordenen E-Mail-Server den Versand zu gefährden. Externe Transaktions-Mailer nehmen einem die Arbeit von den notwendigen Ressourcen bis hin zu umfangreichen Sicherheitsstandards wie SPF oder DKIM ab. So kommt für einen Bruchteil eines Cents die Nachricht auch wirklich beim Empfänger an.

mailjet

Dienste im Überblick

Im laufenden Boom der Spezialisierung im Web haben sich einige Anbieter gegründet, die ausschließlich den Versand von E-Mails übernehmen. Der Markt ist nicht unendlich groß, aber für solch eine augenscheinlich einfache Aufgabe immens.

sendgrid – der amerikanische Platzhirsch

Wenn von Transaktions-Mails gesprochen wird, darf sendgrid nicht fehlen, ist vielfach sogar die erste Assoziation. Der amerikanische Dienst ist der Marktführer und selbst mit einem Büro in Frankfurt vertreten. Über sendgrid versenden auch die ganz großen Akteure im Markt eine große Anzahl von Nachrichten. 

sendgrid-640

Vorteil: Hier kümmern sich viele Menschen den ganzen Tag nur um Transaktions-Nachrichten. Mehr Kompetenz ist kaum möglich.

mailjet – der europäische Mitbewerber

Innovative StartUPs müssen nicht aus Amerika kommen. Mitten in Frankreich wurde mailjet gegründet und bietet gerade auf dem europäischen Markt dem Platzhirschen sendgrid zunehmend Konkurrenz.

mailjet-640

Vorteil: Hier kommen die Nachrichten aus Europa, was gerade hinsichtlich des Datenschutzes einige Probleme beseitigt.

mandrill – der Newsletter-Ableger

Irgendetwas mit Affen – da gibt es nicht viel in der Web-Branche. Mit mandrill hat der Branchenriese bei den Newsletter, MailChimp, den Markt der Transaktions-Mailer angegriffen.

mandrill-640

Vorteil: Mit der gleichen Technik werden Abermillionen Newsletter pro Tag verschickt.

mailgun – die Lösung vom großen Anbieter

E-Mails können wir auch, dachten sich die Macher von Rackspace und gründeten mailgun.

mailgun-640

Vorteil: Hier steckt eine Firma dahinter, die im Markt sehr bekannt ist und sich im Bereich Hosting guter Reputation erfreut.

postmark – der kleine Akteur

Etwas familiärer geht es beim amerikanischen Startup postmark zu. Der Dienst wird eher von kleineren Akteuren im Markt verwendet. 

postmark-640

Vorteil: Die Administrationsoberfläche ist auch für unerfahrene Anwender gut geeignet.

Mehrwert für Verwender: Marketingunterstützung durch Trackingfunktionen

Auch wenn der zuverlässige Versand von E-Mail zweifelsfrei das Hauptaugenmerk aller Dienste bildet, ist dort noch lange kein Ende erreicht. Allein ein zuverlässiges Bounce-Handling erweist sich als echter Mehrwert, um herauszufinden, von welchem Empfänger die E-Mail als unzustellbar zurück kam. 

Auf Wunsch versehen die meisten Anbieter jede ausgehende E-Mail außerdem mit einer kleinen Funktion, die viel über die Nutzer preisgeben kann. Wer hat wann und wo mit welchem Betriebssystem und welchem Browser welche E-Mail geöffnet – in interaktiven Grafiken wird dargestellt, was lange verborgen war. Zumindest, wenn das E-Mail-Programm keine externen Grafiken blockiert. Das sind wichtige Daten für das Marketing, begründen aber auch ein potentielles Datenschutzproblem.

shadows-of-byod

Einige Anbieter gehen noch einen Schritt weiter und verarbeiten eingehende E-Mails. Einmal im Nameserver eingetragen, werden E-Mails nach definierbaren Kriterien aufbereitet und per Push an den eigenen Server gesendet. Wirklich praktisch und mit Möglichkeiten, die es früher einfach nicht gab.

mailjet-stats

Maildienstleister: Welchen soll ich nehmen?

Es gibt nicht DEN richtigen Anbieter. Alle Akteure im Markt versenden zuverlässig E-Mails – zu durchaus vergleichbaren Preisen und mit ganz ähnlichen Programmierschnittstellen. SMTP als universelle Schnittstelle funktioniert ohnehin bei jedem Anbieter. 

Unterschiede existieren in den Oberflächen und den Zusatzangeboten. Mein Favorit nach einigen Tests ist der französische Anbieter mailjet. Als einziger europäischer Anbieter in unserer Übersicht sind Datenschutzprobleme schon einmal ausgeräumt. Außerdem verfügt mailjet über eine sehr übersichtliche Weboberfläche mit zahlreichen Zusatzfunktionen rund um die Zustellsicherheit – ein stimmiges Gesamtpaket.

Wer darüber hinaus eingehende E-Mails verarbeiten möchte, ist beim größten Anbieter sendgrid richtig aufgehoben. Insgesamt ist der Markt momentan sehr breit besetzt – ein Trend, der sich zum Vorteil der großen Anbieter wohl nicht mehr lange fortsetzen wird. So lohnt es sich schon heute, nicht unbedingt auf den kleinsten Anbieter zu setzen.

(dpe)

Kategorien
(Kostenlose) Services E-Business Essentials SEO & Online-Marketing

Optimizely: Das kann der schnelle A/B-Test wirklich

Ideen gibt es wie Sand am Meer. Tolle Ansätze, wie eine Webseite noch viel erfolgreicher sein könnte aber von denen niemand weiß, ob sie wirklich funktionieren. Einfach ausprobieren ist meist eine gute Idee. Durch die Beteiligung möglichst vieler Nutzer sollte schnell klar werden, welche Lösung die wirklich passende ist. Die sogenannten A/B-Tests sind mit dem Internet fest verwurzelt und der Web-Dienst optimizely verspricht, alles rund um diese Tests ganz einfach zu machen.

Stundenlange Diskussionen sind bei Online-Marketern in lustiger Runde mit Webentwicklern normal. Schließlich gibt es fast unendlich viele Möglichkeiten, die betreuten Webseiten zu verändern. So können schon kleine Änderungen bei einem Online-Shop zu einer drastischen Erhöhung der tatsächlichen Verkäufe führen. Umgekehrt passiert es, dass die besten Ideen, in schlüssige Konzepte gegossen, überhaupt nicht funktionieren. Eine Sicherheit gibt es nicht. Zum Schluss entscheidet immer der Nutzer. Ob eine Manipulation letztlich eine Optimierung war, zeigt sich so erst im Nachhinein.

opt-general

Probieren geht über Studieren

Um vom Nachhinein ins Vorhinein zu wechseln, muss lediglich die Phase des Ausprobierens ebenfalls ins Vorhinein verlegt werden. Ideen werden zusammengefasst, umgesetzt und direkt den Kunden ausgeliefert. Die Idee mit den besten Ergebnissen gewinnt. Eine einfache Idee, die technisch nicht einfach umzusetzen ist. Erst müssen verschiedene Versionen der jeweils angedachten Lösungen erstellt werden, im Anschluss liefert eine technische Anwendung für jeden Benutzer eine bestimmte Version aus. Die ausgelieferte Version muss mit dem Benutzer verbunden werden und zum Schluss soll noch die endgültige Aussage herausfallen, welche Version nun besser funktioniert hat: Schritte, die ein großes Unternehmen ohne jegliche Probleme mit der notwendigen Personalstruktur umsetzen kann. Für ein kleineres Projekt sind die Hürden immens und kaum wirtschaftlich umzusetzen.

Tests in der Cloud

Es gibt viele Ziele: Verkäufe steigern, höhere Warenkörbe erzielen, die Verweildauer auf der Webseite maximieren oder prozentual mehr Newsletter-Abonennten gewinnen – zentrale Fragen für jeden Betreiber einer Webseite. Der Dienst optimizely hat es den Großen im Markt nachgemacht und mit einer großen Portion Leichtigkeit die Welt des A/B-Testings in die Wolke gepackt. Einmal die URL eingegeben, wird die zu testende Webseite automatisch geladen. Per Klick wird eine neue Version der Webseite angelegt und das Herumspielen kann beginnen. In einem Online-Editor lässt sich jeder kleinste Punkt der Webseite komplett umstrukturieren. Texte werden geändert, Bilder eingefügt oder ein Klick-Tracking platziert. Alles funktioniert wie in bekannten Office-Programmen und in einer atemberaubenden Geschwindigkeit bei zeitgleicher exakter Ausführung. Eine Stärke, die andere Online-Editoren gerne einmal optimizely abschauen sollten.

opt-drweb

Kompliziertere Änderungen lassen sich unkompliziert per direkter Änderung des Quelltextes erledigen, ohne die schöne Oberfläche verlassen zu müssen. Die Hürde der Erstellung vieler Test-Versionen wäre damit schon einmal überwunden. Nur muss auch alles zum Benutzer transportiert werden. Dazu liefert optimizely einen Javascript-Code, der einfach nur in den Header-Bereich der zu testenden Webseite eingefügt wird. Vom Server kommt also weiterhin das Original, aber immer wenn ein Test läuft, wird noch vor der Darstellung der Quelltext automatisch geändert. Eine Vorgehensweise, die auch beim SEO hilft: In den Suchmaschinen landet nur die vom Server ausgelieferte Original-Version. Die kleinen, mehr oder weniger guten Tests sind absolut transparent und verwässern das Suchergebnis nicht.

Relevante Ergebnisse

Die wichtigste Funktion fehlt noch: das Tracking. Da können die vielen ausgelieferten Test-Versionen noch so schön sein. Ohne die folgende Auswertung bleiben sie nur eine Spielerei. Der virtuelle Baukasten beinhaltet eine ausgereifte Experimente-Funktion. Hat man einmal ein Ziel festgelegt, funktioniert alles automatisch. Ob Newsletteranmelderate, Warenkorbwert oder Abbruchrate – alles kann meist ohne eine Zeile Programmieraufwand in die Cloud-Lösung geschoben werden und wird sogleich mit der ausgelieferten Test-Version kombiniert. Heraus kommt eine übersichtliche und absolut aussagekräftige Statistik. So lässt sich ganz einfach der Gewinner aller konkurrierenden Versionen feststellen und entsprechend die Webseite umgestalten. In höheren Tarifen ist auch eine Tunnel-Analyse möglich, die einen Prozess über mehrere Schritte abbildet und zum Schluss eine Aussage darüber trifft, an welchem Punkt die meisten Nutzer scheitern.

Nicht nur Vorteile

Ohne einen Dienst wie optimizely würden viele Potentiale nicht entdeckt. Gerade in der Einfachheit und hinsichtlich der schnellen Testergebnisse ist die Cloud-Anwendung kaum zu schlagen. Schade nur, dass wirklich interessante Funktionen, wie der nach Browsern aufgeteilte Tests oder die Analyse von Besuchersegmenten nur in höheren Tarifen zugänglich ist. Zahlt ein Nutzer für die Standard-Funktionen schon 17 Dollar pro Monat, sind es mehrere hundert Dollar in den Tarifen mit einem höheren Funktionsumfang – natürlich auch mit mehr erlaubten Test-Besuchern auf der Seite.

Doch gerade viele Funktionen der höheren Tarife wären für Anwender mit einer kleineren Zielgruppe von Interesse. Die Einschränkung wird in Hinblick auf vorhandene Software und keinen relevanten Mehraufwand einfach nur beliebig.  Auch mit dem Datenschutz dürften gerade die deutschen Nutzer Probleme haben. Schließlich speichert optimizely zur Auswertung der Nutzung entsprechende Daten und geht in der Erhebung noch über bekannte Analyse-Dienste wie Google Analystics hinaus.

Neben der Identifizierung des jeweiligen Nutzers können noch personenbezogene Daten mit einem Mausklick in die Datenwolke in den USA geschickt werden. Eine Aufklärung über die Nutzung in den Datenschutzbedingungen und eine Abrede mit optimizely selbst wäre bei der Komplexität nicht ganz abwegig.

(dpe)

Kategorien
(Kostenlose) Services Essentials

Toner leer? Typo3 veraltet? Monitoring mit Nagios

Webseiten sollen online sein. Nichts ist schlimmer als ein Shop oder ein Portal, das gerade nicht erreichbar ist. Jede Sekunde ist bares Geld wert. Fast endlos viele Tricks und Tipps existieren, um dieses Ziel zu erreichen. Genaue Überwachung ist jedoch mindestens genauso wichtig. Cloud-Dienste gibt es im Bereich Monitoring viele. Quasi-Standard ist jedoch eine Software, die schon einige Jahre auf dem Buckel hat. Daher lautet unser Thema heute: Monitoring mit Nagios.

Schönheitspreise wird sie nicht gewinnen: In Schwarz mit strengen Tabellen und schrillen Akzenten kommt Nagios daher. Das ist natürlich kein Vergleich zu bis ins Detail durchgestylten Cloud-Diensten wie Pingdom. Das muss es aber auch nicht sein. Es ist ein mächtiges Werkzeug für Entwickler. Hier kommt es auf Leistung und Übersicht an – nicht unbedingt auf das perfekte Erscheinungsbild. Hunderttausendfach wird die Monitoring-Software weltweit eingesetzt und hat sich zu einem Quasi-Standard entwickelt. Das ist nicht ohne Grund so.

nagios2

Die Logik hinter Monitoring mit Nagios

Nagios ist eine klassische Server/Client-Anwendung. Einmal zentral auf dem Server installiert, können beliebige Clients überwacht werden. Für Standard-Abfragen wie Ping benötigt der Client dabei nicht einmal eine spezielle Software. Will man mehr – etwa einen Datenbankserver auf Last überprüfen oder spezielle Anwendungen regelmäßig mit internen Daten kontrollieren, gibt es die Nagios Plugins. Diese kleinen Programme sorgen dafür, ganz spezifische Anwendungen mit allen zur Verfügung stehenden Daten zu überwachen. Nach einer Installation wird das Plugin vom Server direkt angesteuert und erhält darüber die sonst nur intern zugänglichen Daten. So lässt sich von Typo3 bis zum heimischen Drucker alles überwachen. Und falls einmal ein Plugin nicht verfügbar ist, lässt es sich kurzerhand selbst schrauben.

nagios1

Ist der Dienst einmal in der Überwachung eingerichtet, überprüft der Server in festgelegten Intervallen, ob der Soll- mit dem Istwert übereinstimmt. Ist einmal der Ping zu hoch, die Typo3-Version veraltet oder ein Drucker ohne Toner, werden Alarmmeldungen ausgegeben. Das kann vieles von der E-Mail bis zur SMS sein – fein abgestimmt, wann welche Benachrichtigungen kommen.

nagios3

Nagios Core oder Nagios XI

Seit einiger Zeit ist Nagios auch als Bezahlversion erhältlich. Neben der althergebrachten Core-Version gibt es nunmehr das kommerzielle Nagios XI. Vor einer Installation sollte man daher genau darauf achten, was installiert wird. Vorneweg: Für einen Preis ab 2000 USD plus jährliche Support-Entgelte ist XI wirklich nur etwas für professionelle Anwender. Geboten wird dafür eine moderne Oberfläche, eine einfache Installation und natürlich auch professioneller Support. Wie man es dreht und wendet, es ist nicht eben günstig. Zumal es professionellen Support auch für Nagios Core direkt vom Entwickler gibt. Eine Entscheidung für XI mag letztendlich aufgrund weniger substanzieller Änderungen nur für wenige Anwender in Frage kommen. Wir konzentrieren uns auf Nagios Core und haben trotz fehlender schöner Grafik eine Menge Funktionalität im Gepäck.

nagios4

Monitoring mit Nagios: die Installation des Systems

Keine Sorge: Auch wenn der Einstieg bei der Core-Version nicht ganz so einfach wie bei Nagios XI ist, sind die Schritte übersichtlich. Ich gehe diesmal von einem Ubuntu-System mit installiertem Apache und PHP5 aus. Das sollte wohl nicht allzu exotisch anmuten. Liegt diese Voraussetzung vor, kann es ganz schnell gehen.

Zuerst brauchen wir für Nagios einen neuen Benutzer. Unter Root sollte schon aus Gründen der Sicherheit nichts laufen.

/usr/sbin/useradd -m -s /bin/bash nagios
passwd GEHEIMESNAGIOSPASSWORT #Bitte ändern

Dann können wir die Installationsdateien vom Monitoring-System und dem dazugehörigen Plugin-System direkt von der Webseite in den Downloads-Ordner laden und entpacken.

mkdir ~/download
cd ~/download
wget http://prdownloads.sourceforge.net/sourceforge/nagios/nagios-3.5.0.tar.gz
wget http://prdownloads.sourceforge.net/sourceforge/nagiosplug/nagios-plugins-1.4.16.tar.gz
tar xzf nagios-3.5.0.tar.gz

Nun heißt es nur noch in das Verzeichnis von Nagios wechseln und die üblichen Installationsbefehle ausführen. In den absolut meisten Fällen funktioniert die Installation ohne irgendwelche Komplikationen.

cd nagios-3.5.0
./configure --with-command-group=nagcmd
make all
make install
make install-init
make install-config
make install-commandmode

Und schon ist Nagios installiert – könnte man meinen. Zu diesem Zeitpunkt sollten Sie aber auf jeden Fall noch nicht Nagios starten oder öffnen. Zuvor muss unbedingt in der Datei /usr/local/nagios/etc/objects/contacts.cfg die eigene E-Mail-Adresse eingegeben werden, zu der die Benachrichtungen zugestellt werden. Die anderen Einstellungen sollten für die meisten Konfigurationen passen und müssen nicht geändert werden.

Jetzt muss nur noch die Konfiguration in den Apache-Webserver geschrieben werden.

make install-webconf

Das System funktioniert nun schon. Nur kann jeder auf den Dienst zugreifen. Das ist natürlich nicht Sinn der Sache und leider muss in der Core-Version die Administration noch klassisch über .htaccess geschützt werden. Zuguterletzt initiieren wir einen Restart des Apache und sind soweit bereit.

htpasswd -c /usr/local/nagios/etc/htpasswd.users nagiosadmin
/etc/init.d/apache2 reload

Für die Funktion der Plugins muss nur noch im ähnlichen Ablauf das bereits zuvor heruntergeladene System installiert werden.

cd ~/download
tar xzf nagios-plugins-1.4.16.tar.gz
cd nagios-plugins-1.4.16
./configure --with-nagios-user=nagios --with-nagios-group=nagios
make
make install

Jetzt sind wir fertig. Mit einem Eintrag im Startvorgang des Server sind wir zudem sicher, auch bei einem Reboot ständig das Monitoringsystem bereit zu haben. Zu Beginn müssen wir es aber einmal manuell starten.

ln -s /etc/init.d/nagios /etc/rcS.d/S99nagios
/etc/init.d/nagios start

Das waren doch einige Schritte – einige mehr als bei vielen anderen OpenSource-Programmen – aber nun ist das Monitoring unter /nagios/ auf dem Webserver verfügbar.

Fazit

Monitoring mit Nagios braucht Zeit. Die Oberfläche ist erst einmal wenig intuitiv, aber mit ein wenig suchen und dem grundsätzlichen Verständnis der Abläufe ist schnell der Erfolg sichtbar. Die teure XI-Version braucht es mit ein bisschen mehr Aufwand in der Installation und Abstrichen in der Grafik auch nicht. Und seien wir ehrlich: Wir möchten doch nur, dass das Monitoring zuverlässig und schnell läuft. Das schafft allemal die Core-Version. Und die ist für die absolut meisten Anwendungsfälle gerüstet.

(dpe)

Kategorien
E-Business SEO & Online-Marketing

Weg mit Google Analytics! Die besten Statistik-Tools für Selbsthoster

Datenschutz ist immer ein Problem für Webmaster. Zu umfangreich sind die deutschen Regelungen, um wirklich alles wasserdicht auf der eigenen Webseite umzusetzen. Gerade die unverzichtbaren Webstatistiken legen gleich mehrere Fallstricke, wobei vor allem externe Dienste Datenschutzprobleme mit sich bringen. Da liegt die Idee nahe, einfach selbst die Statistiken zu erzeugen und die Probleme zu umgehen. Tools gibt es dafür einige, aber nicht alle sind wirklich geeignet.

Kein Aufruf soll unbemerkt bleiben. Für Webmaster sind Statistiken für die Optimierung der eigenen Webseite unerlässlich. Dienste wie Google Analytics machen es ganz einfach. Nur ein Code muss eingebaut werden und schon entstehen wunderschöne, detaillierte Statistiken. Hier beginnen die Probleme. Jeder Aufruf wird in die Google-Rechenzentren geleitet – natürlich auch in die USA. Deutsche Datenschutzbehörden reiben sich schon lange an dem Fakt. Seitenlange Verträge sollen nun für ausreichenden Datenschutz sorgen. Doch auch mit persönlicher Unterschrift durch Vertreter von Google ist unklar, wo die Daten gespeichert werden und zu welchem Zweck Google darin herumspielt. Andere Anbieter von Webanalysen in der Cloud sind mit ähnlichen Problemen behaftet – von einigen wenigen deutschen, zertifizierten Anbieter mal abgesehen. Besser ist es jedenfalls, die Daten gleich selbst zu verarbeiten. Die volle Kontrolle über die eigenen Besucher und ein gewisser Schritt gegen die Datensammelwut so mancher großer Dienste mag den etwas komplizierteren Umstieg erleichtern. Zumindest Software gibt es genug auf dem Markt.

Mint – die günstige, alte Kauflösung

Es hätte so schön sein können. Mit Mint hat der Webentwickler Shaun Inman – auch bekannt durch den RSS-Reader fever – eine eigene Webanalytics-Sofware erschaffen. Auf Basis von PHP handelt es sich um eine auch graphisch ausgereifte Lösung, die für 30 US-Dollar pro Seite auf den eigenen Server kommen kann. Es hat mir wirklich viel Spaß gemacht, mit Mint zu arbeiten. Eine gewisse Leichtigkeit und dennoch Übersichtlichkeit war immer die Devise – ganz wissentlich auf einige Features verzichtend. Nur leider sollte es nicht sein. Das Prinzip des einsamen Entwicklers hat die Entwicklung von Mint einschlafen lassen. Die letzte Version stammt aus 2011 und so ist eine Verwendung kaum mehr zu empfehlen. Die Perspektive ist einfach zu unsicher.

mint

Open Web Analytics – der OpenSource-Konkurrent

Open-Source und Webanalyse ist nicht gleich Piwik. Mit Open Web Analytics geht eine Software ins Rennen, die gleich auf den ersten Blick an Google Analytics erinnert. Und wirklich: Gerade mit der eingebauten Heatmap setzt Open Web Analytics eigene Zeichen. Dabei bleibt es jedoch auch. Sind die Statistiken noch gut zu gebrauchen und übersichtlich, ist die Performance für ein produktives Projekt zu schlecht. Zu hungrig ist OWA nach Ressourcen. Außerdem ist die letzte Version auch schon wieder ein gutes Jahr alt. Damit wist auch OWA ein Projekt, das leider in der Konkurrenz zu Piwik eingeschlafen ist und nur noch bei ganz speziellen Szenarien sinnvoll ist. Für die Zukunft sind weitere Releases geplant. Es bleibt vorsichtig abzuwarten, was daraus wird.

owa

Urchin – die professionelle Lösung

Google Analytics ist kein ordinäres Produkt des Konzerns aus Mountain View. Erst durch die Übernahme des Unternehmens Urchin verfügte Google über entsprechende Software. Von diesem Zeitpunkt trennten sich die Wege: Google Analytics als gehostete Version in der Cloud wurde kostenlos freigegeben und weit weg von der großen Öffentlichkeit wurde die Sofware Urchin weiter entwickelt und lizensiert. Die Zahl der Anwender ist heute noch sehenswert und viele externe Agenturen bieten Support. Damit wäre Urchin eine solide Lösung für große Webseiten – hätte Google nicht die Weiterentwicklung eingestellt. Zwar gibt es immer noch Lizenzen für ungefähr 7500 Euro, jedoch ist die Zukunft ungewiss. Können Sie sicher prognostizieren, mit den derzeitigen, umfangreichen Funktionen auch für längere Zeit auszukommen? Dann ist Urchin auch heute noch eine Software, die wie geschaffen für den Einsatz auf Websites aller Größenordnungen ist. Fraglich bleibt zuletzt, ob Google Sicherheitslücken nachbessert. Entschieden ist nichts.

urchin

Piwik – der Marktführer

Der Platzhirsch unter den Webanalyse-Programmen ist zweifelsfrei Piwik. Leicht, einfach zu installieren und OpenSource – eine Verbindung, die sich auszahlt. Hat Piwik am Anfang noch mit der Performance gekämpft, haben die Entwickler mächtig nachgebessert und auch für wirklich große Installationen eine produktive Lösung entwickelt. Die Software auf PHP-Basis produziert individualisierbare Statistiken, die jegliche Einsatzgebiete von der Newsseite bis zum Online-Shop mit ganz spezifischen Bedürfnisse abdeckt. Die Zahl der Anwender ist immens, viele Entwickler sorgen für Weiterentwicklungen und Updates erscheinen regelmäßig. So ist Piwik eine sichere Lösung für die Zukunft. Über Crowdfunding werden selbst innovative Ideen wie eine eigene, moderne Kartengenerierung oder die Segmentanalyse entwickelt. Piwik steht trotz eines immensen Funktionsumfangs erst am Anfang und es lohnt sich, die Entwicklung mitzugehen.

piwik

Logaholic – der kostenpflichtige Datenaufbereiter

Relativ unbeachtet aber auch schon mehrere Jahre kontinuierlich auf dem Markt ist Logaholic. Die PHP-Software ist ab wenigen Euro pro Webseite zu haben und bietet sehr solide Statistiken. Durch ein absolut intelligentes Tracking der Besucher sind auch größere Webseiten mit verhältnismäßig geringen Ressourcen zu analysieren. Der Funktionsumfgang ist wirklich riesig, aber ganz im Gegensatz zu Ansätzen wie Piwik ist die Darstellung optimierungsbedürftig. Viele, sehr detaillierte Ansichten, Einstellungen und Funktionen machen die Software leider sehr unübersichtlich Das finde ich ärgerlich für ein kostenpflichtiges Produkt. Dennoch ist Logaholic eine gute Wahl für erfahrene Anwender, die auch Zahlenkolonnen und viele Input-Felder nicht scheuen.

logaholic

Fazit

Webanalysen selbst zu erstellen ist trotz einiger Software auf dem Markt nicht einfach. Viele Lösungen sind in den letzten Jahren eingeschlafen und der Markt an qualifizierter Software ist überschaubar. Piwik ist weiterhin für fast alle Anwendungsbereiche die beste Lösung. Es bleibt abzuwarten, wie die Entwicklung in den nächsten Jahren vorangehen wird. Schließlich ist auch Piwik nicht die an allen Stellen unfehlbare Lösung.

Welche Software oder Dienst treibt Ihre Statistik an? Haben Sie mit den hier genannten Erfahrungen? Was würden Sie empfehlen?

(dpe)

Kategorien
Fotografie Inspiration

Videodreh fürs Web: Teil 1 – die günstige Lösung

Ein Internet ohne Videos? Fast unvorstellbar. Ob YouTube oder über die eigene Webseite – schnell produzierte und originelle Filme sind voll im Trend. Braucht man für einen Text nur das Notebook, für einen kleinen Audiobetrag auch nicht viel mehr – sind Videos doch deutlich schwieriger zu produzieren. Es braucht eine Kamera, richtigen Ton, gutes Licht und Geschick bei der Postproduktion. Zumindest bei der Hardware liegen im Einstieg die Hürden nicht unendlich hoch, wie man am Beispiel des iPhone sieht.

Keine Frage: Moderne Smartphones haben eine beeindruckende Videokamera eingebaut. Da liegt die Idee nahe, auch zumindest halbwegs professionelle Produktionen mit dem kleinen Wegbegleiter zu realisieren – vorneweg als erstes taugliches Gerät dieser Art, das Apple iPhone. Schon viele Fernsehsender und Produktionsgesellschaften experimentieren seit geraumer Zeit mit der Technologie in der Westentasche. Die Investitionen sind jedoch entsprechend. Nur hochpreisige und überaus schwerfällige Technik wird angebunden. Das ist schon hinsichtlich Komplexität und des finanziellen Aufwandes wirklich nur für ambitionierte Videoproduzenten brauchbar. Dabei kann der Einstieg ganz einfach sein.

Kein Video ohne Stativ

Vieles lässt sich mit Unerfahrenheit und dem Newcomer-Bonus verzeihen – nicht jedoch verwackelte Videos. Über kurze Zeit liegt das Smartphone vielleicht noch gut in der Hand und die Ergebnisse sind relativ ruhig. Interviews oder lange statische Aufnahmen sind jedoch unmöglich ohne richtiges Stativ. Entsprechend des unkonventionellen Einsatzes bedarf es jedoch auch einer klugen Lösung. Der GorillaPod Video ist für mich am praktikabelsten. Auf kleinsten Raum ist das zähe Ungetüm unterzubringen und wirklich immer griffbereit. Durch flexible Beine und magnetische Füße lässt sich das kleine Stativ nahezu überall anbringen. So wird die relativ kleine Größe schnell kompensiert. Doch auch auf den drei kleinen Füßen auf einem Tisch stehend lassen sich gute Videos machen. Der integrierte Schwenkarm ist jedoch leider nicht mehr als eine kleine Anspielung an die großen Stative. Wirklich effektiv nutzen lässt sich die Funktion durch eine manchmal schwerfällige Mechanik und die fehlende Stabilität leider nicht. Trotzdem ist der kleine Helfer für knapp 30 US-Dollar fast unabdingbar. Für weitere 20 US-Dollar gibt es die Halterung für das Mobiltelefon. Durch die Federmechanik ist diese jedoch leider etwas wackelig – da gibt es besseres.

ece1

Eine solidere Haltung

Auf dem Stativ muss das iPhone auch halten. Anders als professionelle Videokameras ist das iPhone jedoch nicht für ein Stativ gedacht. Entsprechend muss nachgerüstet werden. Die optionale Halterung des GorillaPod ist leider etwas anfällig – GLIF ist da weitaus besser. Die multifunktionale iPhone-Halterung für solide 30 US-Dollar ist absolut das Geld wert. Einmal das iPhone eingespannt ist es fast bombensicher eingeklemmt. Schließlich gibt es kaum einen tragischeren Vorfall, als ein während des Drehs ein fallendes iPhone beobachten zu müssen. Die kleine Halterung ist voll kompatibel zum GorillaPod und wenn der Dreh vorbei ist, lässt sich mit dem kleinen Tool auch noch das iPhone im Bett schräg stellen. Passt.

ece2

Guter Ton für den direkten Kontakt

Eingebaute Mikrofone sind seit jeher ein Ärgernis für aufnahme-ambitionierte Nutzer. So ist auch kaum daran zu denken, mit dem integrierten Mikrofon des iPhone irgendwelche Videos produzieren zu können. Schon bei geringer Entfernung dominieren die Störgeräusche und für eine gute Qualität müsste man fast mit der Nase das Display berühren. Ein externes Mikrofon muss her. Leider gibt es nicht unendlich viel Auswahl. Mit dem iRig Mic existiert zumindest eine solide Lösung. Das Handmikrofon kann einfach in den Kopfhöreranschluss gesteckt werden. Gleich im Anschluss können spannende Interviews geführt oder auch Ansager gedreht werden. Das Mikrofon liegt durch die schwere Verarbeitung gut in der Hand. Leider ist der Eindruck besser, als die Resultate wirklich werden. Einige Störgeräusche sind unvermeidlich und auch die Bedienung steckt voller Tücken. Das Mikrofon verfügt über drei Einstellungen der Empfindlichkeit. Nur die mittlere Position liefert wirklich akzeptable Resultate bei einer normalen Verwendung – das muss man auch erstmal herausfinden. Für knapp 50 US-Dollar ist das Teil zudem nicht gerade günstig, bei richtiger Verwendung jedoch gut angelegtes Geld.

ece3

Ton für die volle Handfreiheit

Nicht immer muss es ein Handmikrofon sein. Wer nicht das iRig Mic auf einen Besenstil als Mikrofonangel schrauben möchte, hat wenig Alternativen. Der gleiche Hersteller bietet mit dem iRiG Mic Cast einen kleinen Mikrofonaufsatz an, der es mächtig in sich hat. In nicht allzu weiter Entfernung liefert das kleine Mikrofon wirklich solide Ergebnisse und ist kein Vergleich zu dem integrierten Tonabnehmer. Mittels verschiedener Empfindlichkeiten lässt sich der Klang noch etwas optimieren. Für ungefähr 30 US-Dollar ein kleines Wunderwerk, das im Einsatz wirklich überzeugt. Die Grenzen sind jedoch auch klar die Stärken, bei dem der große Bruder aufholen kann. Auch hier gebe ich klar eine Empfehlung als zweites Mikrofon, wenn gerade kein Handmikrofon benötigt wird.

ece4

Fazit

Für ungefähr 100 US-Dollar lässt sich aus einem normalen iPhone eine solide Lösung für die mobile und stationäre Videoproduktion schaffen. Ausprobieren lohnt, wenn sonst die Anschaffung einer Videokamera ansteht. Die Ergebnisse lassen sich sehen und mit den Hilfsmitteln wird der Abstand zu (semi-)professionellem Video relativ gering. Problempunkte wie Licht oder Objektiv können leider im Fokus einer möglichst günstigen Umsetzung nicht vollständig gelöst werden – zu kostenintensiv sind die Lösungen im Vergleich. In einem weiteren Beitrag werden wir uns bald mit einer professionelleren Lösung befassen…

(dpe)

Kategorien
(Kostenlose) Services Essentials

Cloudflare – die kleinen und die großen Möglichkeiten des Dienstes

Möglichst viele kritische Dienste auszulagern liegt momentan im Trend. Nach dem Motto „Warum selbst machen, wenn es andere günstiger und besser erledigen“ entstand eine ganze Industrie. Cloudflare ist zu diesen Diensten zu zählen und versucht, die Webseite der Kunden in vielen Bereichen besser zu machen. Hinter einem geradlinigen Konzept steckt jedoch deutlich mehr. Teils revolutionäres, teils eher seichte Ware.

Hatten wir schon ein bisschen an der Oberfläche von Cloudflare gekratzt, steckt unter der Haube mehr als nur ein einfacher Dienst. Vom einfachen und geradlinigen Service der Anfangszeit ist nicht mehr viel übrig. Die Entwickler haben schnell das Potential entdeckt und sattelten viele Funktionen oben auf. Von kostenpflichtig bis kostenlos, von unnütz bis wohl durchdacht ist alles dabei.

Cloudflare Apps

Optimierungen des Quellcodes sind schon Standard. Es liegt dann nahe, gleich nützliche Erweiterungen in einem Rutsch einzufügen. Mussten früher noch die diversen Codeschnipsel von Google Analytics oder Typekit aufwändig in den Quellcode integriert werden, geht jetzt alles automatisch. Von der Anmeldung bis zur optimierten Integration dauert es meist nur Minuten. Schon unzählige externe Anbieter haben sich den Cloudflare-Apps angeschlossen. Das Stöbern nach neuen kleinen Anwendungen macht regelrecht Spaß. Sollte die gewählte App kostenpflichtig sein, läuft die Bezahlung zentral über Cloudflare. Natürlich ist die Abhängigkeit vom zentralen Dienst enorm. Einfach deaktivieren funktioniert dann nicht mehr, wenn nicht jegliche externen Erweiterungen wegfallen sollen. Bequemlichkeit auf Kosten der Unabhängigkeit. Ich würde mich nicht darauf verlassen.

cf2

Angriffsanalyse

Jede Webseite wird angegriffen. Oft unbemerkt protokolliert Cloudflare alles mit. In einer bedrohlich roten Linie werden nach Datum sortiert die Angriffe angezeigt. Auch ist es möglich, jeden Angriff einzeln anzuschauen, um einmal zu erleben, von welchen Ländern die meisten Bösewichte kommen. Bei mir ist es China. Einzelne Angriffe können auch in eine Whitelist aufgenommen werden. Insgesamt eine nette Funktion, die garantiert nach einem Monat kaum ein Mensch mehr anschaut. Schließlich soll Cloudflare für Ruhe sorgen – wie ist zweitrangig.

cf5

Optimierung mit Railgun

Cloudflare hat ein Problem – ein riesiges Problem. Will der Dienst besonders die Geschwindigkeit optimieren, wirkt sich der Service schon rein konzeptionell negativ auf die Ladezeiten aus. Bei jeder Verbindung muss erst der Cloudflare-Server die Inhalte vom Ursprungsserver abrufen. Das braucht Zeit. Eine Schwäche, die dem Prinzip innewohnt. Mit Railgun versuchen die Entwickler jedoch das Unmögliche. Das kleine Programm muss zunächst auf dem eigenen Webserver installiert werden. Das relativiert auf der einen Seite das einfache Konzept, gibt aber im Gegenzug gleich neue Möglichkeiten. Einmal installiert hält Railgun ständig Kontakt zu den Rechenzentren von Cloudflare, sendet ausschließlich die Änderungen im HTML-Quelltext und komprimiert alles noch elegant. Und wirklich: Die Verbesserungen lassen sich sehen und die Unterschiede in der Ladezeit sind nur noch minimal. Das Caching ist absolut effizient und funktioniert selbst bei hochdynamischen Webseiten. Railgun ist in den kostenpflichtigen Diensten enthalten und die Installation lohnt sich trotz des Zeitaufwands. Wer bei den vielen Hostingpartnern von Cloudflare ist, kommt kostenlos in den Genuss. Super.

cf4

Integrierte Statistiken

Jeder einzelne Zugriff läuft zentral über die Server von Cloudflare. Als Selbstverständlichkeit darf gelten, dass dabei Statistiken erhoben werden. Im Gegensatz zu Google Analytics und anderen im Quelltext eingebundenen Systemen hat die Messung einen Vorteil: Jeder Zugriff wird wirklich gezählt, während sonst Benutzer ohne Javascript oder mit aktivierten Blockern komplett außerhalb der Statistiken sind. Cloudflare bietet so ein wirklich nettes Tool, mit dem die Daten eines anderen System ergänzt werden können. Als eigenständige Lösung ist der Funktionsumfang einfach zu gering. Schade – aber schließlich ist Cloudflare auch kein Webanalysedienst. Zumindest lässt sich gut anschauen, wie viel Datentransfer gespart wurde. Das macht selbst nach einiger Zeit noch Spaß.

cf1

SSL mit einem Klick

Zertifikate kaufen und Webserver richtig konfigurieren – der Weg zu SSL ist nicht gerade einfach außerhalb geschlossener Hosting-Ubgebungen. Cloudflare liefert die „letzte Meile“ zum Nutzer und bietet auch die Möglichkeit der SSL-Verschlüsselung an. Mehr als einen Klick im kostenpflichtigen Tarif bedarf es nicht und SSL steht zur Verfügung. Das funktioniert wirklich unkompliziert. Eine bequeme, aber nicht unbedingt zufriedenstellende Lösung. Cloudflare nutzt für mehrere Kunden nur ein Zertifikat und jeder Nutzer sieht per Klick auf das SSL-Symbol im Browser erst eine anonyme Cloudflare-Domain und dann eine ganze Liste von Kundendomains. Nicht unbedingt vertrauenerweckend. Eigene Zertifikate sind erst in einem der höheren Tarife möglich. Damit ist es insgesamt nur eine halbherzige SSL-Lösung, die leider bei der Nutzung von Cloudflare unausweichlich ist.

cf3

Fazit

Cloudflare bietet viel mehr als auf den ersten Blick ersichtlich wird. Doch nicht alles ist wirklich innovativ und einmalig, wie es die Entwickler gerne verstanden wüssten. Ausprobieren lohnt sich aber jedenfalls. So werden unnütze Funktionen schnell wieder aus dem Tagesablauf verschwinden. Zumindest zerstören lässt sich kaum etwas. Man darf gespannt sein, was sich die Entwickler in der Zukunft noch ausdenken werden. Und wie immer lohnt auch bei Cloudflare ein Notfallplan. Kein Dienst ist immer erreichbar und ein einfacher zusätzlicher Nameserver kann helfen, wenn auf einmal bei allen anderen Kunden Land unter ist. Ist alles schon vorgekommen…

(dpe)

Kategorien
(Kostenlose) Services E-Business Essentials Workflow

Open Ticket Request System OTRS: Perfekter Kundensupport mit Open Source

Kundenanfragen zu bearbeiten kann sehr mühselig sein. Je mehr es werden, desto unübersichtlicher gerät die Aufgabe. Ein Ticketsystem muss her. Es kategorisiert und filtert und hilft bei Anfragen über die verschiedensten Kanäle. Systeme dafür gibt es viele. Gerade in letzter Zeit haben Cloud-Dienste wie Zendesk oder Desk.com enorm zugelegt. Doch schon bevor an die Cloud überhaupt zu denken war, gab es mit dem Open Ticket Request System (OTRS) eine zuverlässige Lösung als Ticketsystem. Mit ein bisschen Hintergrundwissen ist OTRS noch heute eine sehr solide und praktikable Lösung.

otrs-teaser

Ein Leichtgewicht ist OTRS nicht gerade. Viele Megabyte Perl-Code, Installationspakete für verschiedene Betriebssysteme und eine Oberfläche, die nicht unbedingt an die pure Moderne erinnert. Zweifelsfrei ist OTRS nichts, was ein unbedarfter Anwender einfach mal so ausprobiert. Zu unrecht. Auch wenn OTRS auf den ersten Blick nicht einfach zugänglich erscheint, sind die Schritte dahin einfacher, als zuerst gedacht. Und mit ein bisschen Hintergrundwissen zusätzlich, bietet OTRS nach wie vor eine große Funktionalität – ohne auf die Cloud vertrauen zu müssen.

otrs

Erste Schritte

Ein paar E-Mails zu Tickets ordnen und zur leichten Bearbeitung aufbereiten – die Aufgabe klingt eigentlich überschaubar. Ist sie jedoch nicht. Technisch ist es eine Herausforderung, viele Aktionen gleichzeitig auszuführen, mit Mailservern zu kommunizieren und dann noch für den Benutzer eine gute Arbeitsoberfläche zu bieten. Entsprechend umfangreich wuchs über die Jahre das Paket von OTRS und braucht den notwendigen Untergrund für die perfekte Funktion. Grundsätzlich läuft das Ticketsystem auf fast jedem Webspace mit Perl und Cronjobs. Viel Spaß wird die Anwendung dort jedoch nicht machen. Schon die Entwickler empfehlen einen Server mit mindestens 2 GB RAM und entsprechend großer Festplatte. Aus eigener Erfahrung kann ich sagen, dass auch 4 GB für ein kleines Projekt auf keinen Fall schaden. Schließlich werden regelmäßig E-Mails vom Mailserver abgeholt und aufwendig nach zuvor festgelegten Regeln einsortiert. Das saugt besonders das RAM gerne einmal leer und macht die Oberfläche bei fehlender Leistung sehr behäbig.

Auch bei den Betriebssystemen ist OTRS als Perl-Applikation offen – optimalerweise sollte jedoch SUSE oder RedHat verwendet werden. Die Entwickler haben sich schon mit frühen Versionen für diese Betriebssysteme entschieden und stellen auch nur für diese fertige Installationspakete bereit. Auf anderen Plattformen lässt sich OTRS natürlich über den Source Code installieren. Das ist jedoch nur eine Aufgabe für wirklich erfahrene Administratoren. Neben der Applikation muss der Webserver konfiguriert, ein eigener OTRS-Nutzer eingerichtet und CronJobs manuell hinzugefügt werden. Das ist eine manchmal absolut zeitraubende Aufgabe, die bei jedem Update wieder zu Problemen führen kann. Mit den Installationspaketen ist man auch bei häufigen Updates auf der sicheren Seite. In nicht einmal fünf Minuten ist die Anwendung komplett verfügbar – eine Zwangsfestlegung auf RedHat oder SUSE, die sich wirklich lohnt.

Einstieg

Viele Funktionen verwirren. Mit dem richtigen Fokus ist der Weg von der ersten Installation bis zur ersten Ansicht des Tickets jedoch nicht weit. Grundsätzlich ist die Aufteilung ganz einfach: E-Mails werden als Ticket in eine Queue eingefügt und können von Agenten abgearbeitet werden. Sieht die Administrationsoberfläche beim ersten Blick noch sehr unübersichtlich aus, werden für einen ersten Startlauf dennoch nur einige Punkte benötigt. Zunächst wird eine neue Gruppe mit beliebigem Namen erstellt. Mit der Funktion „Agenten <-> Gruppen“ kann im Anschluss einfach ein vorhandener Agent – wie der Administrator – zu einer Gruppe hinzugefügt werden.

admin-area

Allein mit lediglich einer angelegten Gruppe wird OTRS nicht funktionieren. Zunächst muss noch eine Queue angelegt werden, die später die gestellten Supportanfragen sammelt. Nach einem Klick auf „Queue hinzufügen“, lässt sich die Queue benennen. Hier kann auch die gerade eben erstellte Gruppe ausgewählt werden, damit jedes Mitglied der Gruppe, die in dieser Queue einsortierten Tickets auch wirklich bearbeiten kann. Zurück auf der Admin-Oberfläche kann endlich unter dem Punkt „PostMaster E-Mail Konten“ die Verknüpfung zwischen dem Mailserver und OTRS hergestellt werden. Per IMAP oder POP3 ruft OTRS in regelmäßigen Abständen Mails ab. Mit der Sortierung nach ausgewählter Queue, landet jede E-Mail aus einem bestimmten E-Mail-Account auch sicher in der richtigen Queue. Je nach persönlichem Geschmack lassen sich noch ausgeklügeltere Sortierungsregeln unter „PostMaster Filter“ entwerfen und einbinden. So können je nach Empfängeradresse sogar Mails aus ein und demselben E-Mail-Konto verschiedenen Queues sehr einfach zugeordnet werden.

admin-queue

Das sollte es für den ersten Schritt auch schon gewesen sein. Spätestens nach ein paar Minuten landen von nun an alle E-Mails aus dem Postfach direkt in OTRS und lassen sich von dort bearbeiten. Dank übertragener ID werden sehr zuverlässig Nachfragen automatisch einem bestimmten Ticket zugeordnet. OTRS ist dabei insgesamt sehr robust und selbst bei vielen E-Mails geht keine Anfrage unter.

dashboard

Fazit

OTRS ist noch in Zeiten von bekannten und beliebten Cloud-Diensten eine echte Alternative für die reibungslose Bearbeitung von Tickets. Einmal hinter die starre Oberfläche geblickt, ermöglicht OTRS auch Neueinsteigern eine gute Bedienung und ist für die Zukunft gerüstet. Reinschauen lohnt sich schon ab wenigen Tickets pro Monat. Gerade wer seine Daten gerne auf den eigenen Servern lagert oder besondere Anbindungen benötigt, wird mit OTRS auf Dauer durch eine offene und belastbare Architektur viel Freude haben.

(dpe)

Kategorien
(Kostenlose) Services Essentials

CDN von kostenlos bis teuer – Passende Lösungen für jede Website

Alle Dateien einer Webseite von einem einzigen Webserver auszuliefern scheint längst überholt, ein Konzept vergangener Zeiten. Für parallele Downloads und den damit verbundenen schnelleren Seitenaufbau werden JavaScript, CSS und Bilder oft über externe Server für statische Inhalte ausgeliefert. Wer nicht selbst Server mieten und administrieren will, kauft die Dienstleistung bei einem CDN-Provider ein. Unüberschaubar viele Anbieter auf dem Markt machen einen Überblick schwierig. Möglichkeiten gibt es jedoch genug.

Was ist ein CDN?

Hunderte Dienste gibt es für im Grunde die gleiche Aufgabe, nämlich viele statische Dateien möglichst schnell auszuliefern. Von günstig bis teuer, von einfach bis kompliziert – jeder Dienst hat seine Vorteile.

Das Prinzip ist immer gleich: Auf der eigentlichen Webseite werden Links auf statische Inhalte direkt zum CDN geleitet, was einmalig die Original-Datei vom ursprünglichen Server lädt, diese in den eigenen Systemen zwischenspeichert und direkt dem Nutzer ausliefert. Häufig hat ein CDN viele, teils weltweit verteilte Standorte, um die Geschwindigkeit nochmals zu optimieren. Die Entscheidung für einen Anbieter muss dabei nicht schwer sein. Ich habe meine persönlichen Favoriten zusammengestellt.

Kostenlos – Cloudflare & Google App Engine

CDN gern – aber es darf keinen Cent kosten. Eine kleine Herausforderung. Schließlich gibt es wenig kostenlos. Mit ein paar Tricks im Gepäck kann es jedoch gelingen.

cdn-googleappengine
Googles App Engine

Der wohl umständlichste Dienst ist die Google App Engine. Eigentlich eine vollwertige Umgebung für Webanwendungen, kann das Online-Tool auch statische Dateien auf den Servern von Google ablegen. Der einzige Wermutstropfen: Das alles muss manuell erledigt werden. Also jede einzelne Datei muss mit den Tools von Google umständlich auf den Server gezogen werden. Nur die kleine App Cirrux Cache versucht, mit manchmal nicht sonderlich erfolgreichen Mitteln, ein ordentliches CDN auf der App Engine zu simulieren. Zudem hat Google die kostenlosen Nutzungsmöglichkeiten der App Engine deutlich eingeschränkt. Dennoch ist der Dienst sicher etwas für den kleinen Webmaster mit wenig Änderungsbedarf an den Dateien.

Viel eleganter ist die Lösung mit Cloudflare. Eigentlich eine komplette Lösung für Web-Security und Geschwindigkeitsoptimierung, lässt sich der Dienst aus San Francisco mit einfachen Mitteln ausschließlich als CDN nutzen.

cloudflare-logo-640px
Cloudflare

Einfach eine neue Domain bei dem Dienst kostenlos installieren, den DNS-Eintrag auf die IP des Webservers lenken und alle Links zu statischen Dateien auf die neue Domain umstellen. Fertig. Ab sofort liefert Cloudflare alle statischen Inhalte von aktuell 23 weltweit verteilten Rechenzentren zum Nulltarif aus. Keine versteckten Kosten oder Beschränkungen. Einfacher geht es nicht.

Für WordPress – WP Booster

Auch Blogger wollen schnelle Ladezeiten vorweisen können. Nicht ganz einfach bei einem Komplettsystem wie WordPress, bei dem sich nicht einfach mal schnell händisch die Links einiger statischer Dateien ändern lassen. Gab es früher nur manuelle Methoden wie das Plugin CDN-Linker, gibt es heute CDN-Anbieter, die sich ausschließlich auf WordPress spezialisiert haben.

cdn-wp-booster
WP Booster

Die für mich beste Lösung liefert aktuell WP Booster. Mehr als einen Klick auf die Installation des Plugins und der Eingabe eines API-Keys bedarf es nicht. Danach leitet das Plugin automatisch alle Anfragen zu statischen Dateien auf das CDN um. Kein Nachdenken mehr über das richtige Netzwerk oder Einstellungen – die japanischen Entwickler des Plugins verstehen ihr Handwerk und liefern über das intern verwendete Netzwerk Amazon Cloudfront die Dateien sicher und schnell aus. Die Bequemlichkeit lassen sich die Entwickler mit ungefähr 6 US-Dollar pro 10 GB Datentransfer jedoch auch entsprechend bezahlen.

Für Ambitionierte – Amazon Cloudfront

Längst ist Amazon mehr als ein Buchversender. Jeder kann die Infrastruktur von Amazon mit dem Programm AWS gegen Bezahlung nutzen. Das hauseigene CDN Cloudfront ist dabei die beste Wahl für Projekte, die mehr als einen kostenlosen Dienst brauchen, aber auch noch keine Enterprise-Kunden sind.

cdn-amazon-cloudfront
Amazon Cloudfront

Für die Einrichtung eines Accounts ist nur eine Kreditkarte als Bezahlmethode notwendig. Mit wenigen Klicks in der Amazon-Konsole ist der Dienst eingerichtet. Nach dem Austausch der URL werden die Inhalte absolut zuverlässig über das Netzwerk von Amazon ausgeliefert. Rund eine halbe Million Server verteilt über die ganze Welt stehen zur Verfügung.

Der Dienst hat sich – im Gegensatz zu manch anderen AWS-Produkten – als sehr zuverlässig herausgestellt. Die Preise sind mit ungefähr 10-15 Eurocent pro Gigabyte selbst in den Einstiegstarifen absolut günstig. Mit ein bisschen mehr Mühe und dem Einsatz eines Plugins, wie dem W3 Total Cache, lässt sich Cloudfront auch in WordPress problemlos integrieren und man spart sich die zusätzlichen Gebühren, die WP Booster nimmt.

Für Großverbraucher – Akamai

Es geht immer besser. Gerade im Enterprise-Markt zählen Millisekunden und auch für die anspruchsvollsten Nutzer gibt es den passenden Dienst: Akamai.

cdn-akamai
Akamai

Der Platzhirsch und Vorreiter unter den CDN ist in über 80 Ländern vertreten und liefert von Airbus bis Yahoo fast alle größeren Webseiten aus. Und das ist auch schon der Haken: Um Akamai zu konkurrenzfähigen Preisen zu nutzen, muss wirklich extrem viel Datentransfer erzeugt werden. Mehr als bei weitem die meisten Webseiten erzeugen.

Dann jedoch ist Akamai für mich immer noch der überzeugende Dienst. Die Geschwindigkeit, Flexibilität und die Möglichkeiten der Feinjustierung sind absolut einmalig. Über den Preis schweigt sich Akamai jedoch aus. Nur direkte Angebote gibt es. Aktuell dürfte der Einstieg grob ungefähr bei den Preisen von Amazons Cloudfront liegen und reduziert sich entsprechend bei mehr Traffic.

Fazit

Für jeden Anwendungsbereich gibt es die passende Lösung. Selbst mit einer abgespeckten kostenlosen Implementation lohnt sich der Einsatz spürbar. Je nach Webseite lässt sich die Ladezeit gerne einmal halbieren. Und für professionelle Anwender führt heute absolut kein Weg mehr vorbei an der verteilten Auslieferung von statischen Dateien – da sind die etablierten CDN-Anbieter auch meist deutlich günstiger und sicherer als eine wackelige eigene Lösung.

Wie stehen Sie zum Thema CDN? Haben Sie bereits Erfahrungen damit gesammelt?

(dpe)

Kategorien
(Kostenlose) Services Essentials

Vollgas mit Cloudflare? Revolutionärer Dienst verspricht rasante Performance und hohe Sicherheit für beliebige Websites

Webseiten sollen die eierlegenden Wollmilchsäue schlechthin sein. Extrem schnell, beständig vor Angreifern und am besten noch mit vielen Features. Das ist nicht leicht umzusetzen. Entweder müssen dafür Dutzende von Webentwicklern für einige Wochen in einen dunklen Raum gesteckt werden oder, neue Wege müssen her. Einen revolutionären Ansatz hat das StartUp Cloudflare aus San Francisco gewagt. Die Lösung: Leite einfach all deinen Traffic über unsere Server und wir erledigen den Rest. Ein Prinzip, das einfacher klingt als es ist.

cloudflare-logo-640px

Cloudflare und die nachlässig implementierte Router-Regel

Eins gleich vorweg: Es mag erstaunen, über einen Dienst zu sprechen, der absolute Sicherheit, Stabilität und Komfort verspricht und erst in der letzten Woche für eine Stunde fast 800.000 Webseiten in den Abgrund gerissen hat. Es erwies sich als nicht so schlau, eine Router-Regel ohne großen Testlauf auf allen Rechenzentren weltweit gleichzeitig auszurollen. Einsicht ist immerhin der erste Schritt auf dem Weg zur Besserung und man darf wohl mit Sicherheit davon ausgehen, dass sich ein solcher Fehler nicht wiederholen wird.

Dem grundsätzlichen Prinzip tut das überdies keinen Abbruch. Cloudflare versucht alles, um Webseiten im bestmöglichen Licht erscheinen zu lassen. Inhalte werden gecacht, Angriffe abgefangen, Code optimiert und wahlweise nützliche Apps on the fly eingefügt.

Das Prinzip hinter der Wolke

Ziel der Entwickler war es, eine Rundumsorglos-Lösung für Webseiten zu erschaffen. Einmal eingerichtet, sollten alle relevanten Abläufe über das eigene Netz laufen. Im Prinzip ganz einfach: Vor die eigentlichen Webserver wird der Dienst von Cloudflare geschaltet, der den Großteil der zu erledigenden Arbeiten leistet.


In 90 Sekunden erklärt Cloudflare sich selbst…

Ausgerechnet Ausfallsicherheit war dabei ein besonderes Kriterium der gesamten Plattform und so sind aktuell 23 Rechenzentren weltweit für den Dienst tätig.  Dabei wird via Anycast für jede Anfrage eine Route zu jedem Rechenzentrum angeboten –  jedoch nur das regional nächste bearbeitet die Anfrage.

Das System hat gleich mehrere Vorteile. Durch die weltweite unmittelbare Nähe zum Anwender werden die Anfragen zunächst mit geringer Latenz ausgeführt. Außerdem ist die Ausfallsicherheit sehr hoch. Bricht ein Rechenzentrum zusammen, bricht auch die Route zu diesem zusammen und mit Anycast wird einfach das zweitnächste Rechenzentrum angesteuert.

Eine durchdachte Infrastruktur ist jedoch nicht alles. Cloudflare versucht, möglichst alle Bereiche für die Auslieferung einer Webseite zu vereinheitlichen. Das fängt schon damit an, dass der Dienst eigene Nameserver betreibt – das sogar mit einer äußerst soliden Geschwindigkeit. Diese Nameserver müssen für die eigenen Web-Projekte hinterlegt werden. Die Installation der Nameserver ist auch schon die einzige komplizierte Tätigkeit für den Anwender.

Ab dann passiert alles automatisch – gesteuert über ein Webinterface. Grafiken werden gecacht und über das CDN ausgeliefert. Quellcodes werden optimiert. Mit einem Klick lässt sich eine vollständige IPV6-Unterstützung aktivieren, auch wenn der Ursprungsserver ausschließlich per IPv4 angebunden ist. Kleine Apps bieten nützliche Funktionen auch von Drittanbietern an.

Hauptaspekt hinter dem Cloudflare-Konzept ist jedoch: Sicherheit. Weltweit werden mit stetig wachsender Tendenz immer mehr Angriffe auf Webseiten gezählt. Große DDoS-Angriffe zwingen selbst internationale Webseiten in die Knie. Die Absicherung ist auf dem eigenen Server oft schwierig bis unmöglich.

Cloudflare verspricht, mit der zusätzlichen Schicht vor dem eigentlichen Webserver auch massive Angriffe abzufangen. Und anscheinend geht das Versprechen auf. Schon mehrmals hat der Dienst öffentlich teils massive Attacken auf das Netzwerk dokumentiert und erfolgreich bekämpft. Die mehrschichtige Sicherheit scheint zu funktionieren – zumindest die notwendigen technischen Ressourcen für die Sicherheit hat der Dienst.

Die Installation

Eigentlich müsste die Installation eines derart umfangreichen Dienstes kompliziert sein – ist sie jedoch nicht. In fünf Minuten ist alles erledigt, oft sogar schneller.

Wichtig für Einsteiger: Reduziert auf seine Grundfunktionen kostet der Dienst nichts. Auf Dauer kann die Webseite mit den Grundfunktionen kostenlos betrieben werden, die schon absolut ausreichen. Für den Einstieg einfach kurz anmelden und die eigene Domain eintragen. Es muss sich dabei um eine TLD handeln – nur eine Subdomain funktioniert nicht.

cloudflare-1

Danach lädt Cloudflare die bisherigen DNS-Informationen herunter. Das ist im Grunde sehr zuverlässig. Aber vor der endgültigen Umstellung sollten die Einträge auf jeden Fall noch einmal geprüft werden. Sonst ist unter Umständen nachher nicht alles erreichbar. Per Klick auf die Wolke kann noch ausgewählt werden, ob eine bestimmte Subdomain über Cloudflare beschleunigt werden soll oder nicht.

cloudflare-2
Das war es schon. Im nächsten Schritt werden die persönlichen DNS-Server für die jeweilige Domain angezeigt und nach dem Update beim Registrar landen alle Anfragen automatisch direkt bei Cloudflare. Die Grundeinstellungen erledigen schon einmal die grobe Arbeit und können einfach modifiziert werden. Es könnte kaum einfacher sein.

Probleme

Es scheint alles so schön: Sorgenlosigkeit nach fünf Minuten Einrichtung. Das stimmt nur mit Einschränkungen. Cloudflare ist zwar ein revolutionärer Dienst, aber nicht die ultimative Lösung.

Allein schon durch den doppelten Weg der Anfrage vom Benutzer zu Cloudflare und dann nochmals von Cloudflare zum eigentlichen Server nimmt die Reaktionszeit zu. Das ist ein strukturelles Problem, das sich optimieren lässt, aber mit dem man grundsätzlich leben muss. Bei einem normalen Seitenaufruf ist das schwer spür-, aber sehr deutlich messbar.

Nach meinen eigenen Messungen kann die Reaktionszeit bei einer normalen Seite durchaus regelmäßig 1600ms betragen, nicht wenig. Auch der oben erwähnte komplette Ausfall zeigt, was passieren kann, wenn man seine Website komplett einem Drittservice anvertraut. Ein doppelter Boden schadet demnach auch bei einer versprochenen Verfügbarkeit von 100% nicht. Dann kann Cloudflare auch wirklich Spaß machen.

In einem Folgebeitrag werden wir uns mit einzelnen Aspekten der Cloudflare-Infrastruktur näher befassen. Dabei wird es auch um den eben empfohlenen „doppelten Boden“ gehen.

Haben Sie bereits Erfahrungen mit Cloudflare gemacht? Teilen Sie sie mit uns. Ich interessiere mich auch ganz persönlich sehr dafür ;-)

(dpe)

Kategorien
(Kostenlose) Services

Varnish – Kostenloser Cache-Server der Extraklasse beschleunigt Ihre Website

Komplexe Webanwendungen und eine hohe Anzahl an Aufrufen bedeuten den Tod für viele Webserver. Bei jedem Aufruf muss der Web- und Datenbankserver viele Daten richtig zusammenstellen, um die Webseite letztlich als HTML-Code auszuliefern. Immer häufiger werden statische Inhalte in einem Cache für eine gewisse Zeit zwischengespeichert. Diese Funktionalität wird meist schon standardmäßig in der Webanwendung implementiert – für die bis zu 1000-fache Beschleunigung jedoch braucht es mehr.

varnish_speed_up

Varnish – schnell installiert und schon in der Grundkonfiguration brauchbar

Varnish – eigentlich hört es sich eher nach einem Reinigungsmittel als nach schneller Cache-Software an. So falsch ist der Eindruck auch gar nicht, denn Varnish bedeutet übersetzt „Lack“ und den verleiht er auch der Webanwendung. Die Entwickler sprechen von einer 300-fachen bis maximal 1000-fachen Beschleunigung. Dabei konzentriert sich die Anwendung im Gegensatz zu vielen anderen Cache-Servern auf HTTP, was wiederum der Nutzer deutlich merkt. Dabei ist der Einstieg absolut einfach.

Voraussetzung für die Nutzung von Varnish ist ein Webserver mit Linux, was wohl Standard sein dürfte. Root-Rechte sind nur zur Installation notwendig. Varnish hält den Cache aus Gründen der Schnelligkeit im RAM, weshalb davon ebenfalls ausreichend verfügbar sein sollte. Ein absolutes Minimum gibt es zwar nicht – aber 2 Gigabyte schaden mit ein bisschen Luft nach oben auch bei einem kleineren Projekt nicht.

Für die Installation hält das Projekt schon fertige Pakete bereit.

Ubuntu

curl http://repo.varnish-cache.org/debian/GPG-key.txt | sudo apt-key add -
echo "deb http://repo.varnish-cache.org/ubuntu/ precise varnish-3.0" | sudo tee -a /etc/apt/sources.list
sudo apt-get update
sudo apt-get install varnish

CentOS/Fedora

rpm --nosignature -i http://repo.varnish-cache.org/redhat/varnish-3.0/el5/noarch/varnish-release-3.0-1.noarch.rpm
yum install varnish

Das war es eigentlich schon. Der Cache sollte ohne Fehlermeldung installiert sein. Nur er funktioniert noch nicht. Immer noch liefert unser Apache bzw. jeder andere Webserver die Seiten aus. Dabei soll doch in Zukunft der Cacheserver die Seiten ausliefern und nur manchmal auf den Webserver im Hintergrund zugreifen.

Das ist schnell geändert. Die Hauptkonfigurationsdatei ist unter /etc/default/varnish abgelegt. Notwendig ist nur, die Kommentare „DEAMON_OPTS“ zu entfernen, dass die Konfiguration dort so aussieht:

DAEMON_OPTS="-a :80 \
-T localhost:6082 \
-f /etc/varnish/default.vcl \
-S /etc/varnish/secret \
-s malloc,256m"

Im zweiten Schritt muss noch in der Datei default.vcl unter /etc/varnish/default.vcl festgelegt werden, wo der Webserver läuft. Es kann ein interner Webserver angesprochen werden, aber auch externe Webserver können entlastet werden – damit wird Varnish als exklusiver Cache-Server erst möglich.

backend default {
.host = "127.0.0.1";
.port = "8080";
}

Webmastern wird auffallen, dass der Webserver auf dem Port 8080 läuft. Dies dürfte allerdings in den meisten Fällen nicht den Tatsachen entsprechen. Deshalb muss nun der Webserver dahingehend konfiguriert werden, dass er auf dem Port 8080 läuft. Beim Apache befindet sich die Konfiguration in der Datei /etc/apache2/ports.conf.

NameVirtualHost 127.0.0.1:8080
Listen 127.0.0.1:8080

Wichtig: Auch in der vhost-Konfigration muss statt dem Standard-Port 80 ab sofort 8080 stehen, da sonst Apache nicht richtig funktionieren wird.

So weit, so gut. Nun müssen lediglich noch Apache und Varnish neugestartet werden und alles sollte schon im Standard absolut flüssig funktionieren. Sie werden sehen: Varnish ist einfach extrem schnell, damit auch für größere Projekte eine echte Empfehlung. Die noch dazu absolut kostenlose Software ist immer einen Blick wert, bevor es um  die Anschaffung zusätzlicher Hardware geht. Der Cache spart nämlich deutlich Rechenaufwand und macht so einen Teil der Hardware überflüssig. Für punktgenaue Anpassungen hält die Webseite der Entwickler eine umfangreiche Dokumentation bereit.

Bildquelle: Éole via photopin cc

(dpe)

Kategorien
E-Business SEO & Online-Marketing

Google PageSpeed: Webseitenoptimierung out of the Box

Unzählige Faktoren fließen in das Ranking von Google ein. Neben dem Inhalt der Seite und möglichen Verlinkungen wirft die Suchmaschine einen besonderen Blick auf das Ladeverhalten der Webseite. Lange Ladezeiten nerven. Das weiß auch Google und verhilft optimierten Webseiten im Ranking zu einem besseren Platz, ein echter Vorteil im SEO. Die Optimierungen benötigen jedoch viel Wissen und schlucken nicht unerheblich Zeit. Google versucht gleich mit zwei eigenen PageSpeed-Anwendungen für Abhilfe zu sorgen.

pagespeed-rocket

PageSpeed ist sicherlich vielen Webmastern ein Begriff. Schon lange konnte jeder mit den PageSpeed Insights durch kurze Eingabe der URL herausfinden, ob die Webseite ein echtes Desaster oder rasend schnell ist. Je weiter der berechnete Score in Richtung 100 geht, desto besser das zukünftige Ranking. Zusätzlich liefert Google ein ganzes Arsenal von Optimierungsmöglichkeiten. Lange konnte der Webmaster nur in zeitaufwändiger Kleinarbeit alle Optimierungen umsetzen – seit geraumer Zeit bietet Google mit Clouddienst und Webserver-Plugin auch eigene Software-Lösungen, die ganz automatisch die Optimierungsmöglichkeiten umsetzen.

PageSpeed Service

Wer es einfach mag, greift zur cloudbasierten Lösung PageSpeed Service. Einmal angemeldet kann die URL zur Webseite einfach angegeben werden. Nach einer Aktualisierung des Nameservers werden in Zukunft alle Anfragen direkt an Google geleitet. Der PageSpeed Service ruft dann die hinterlegte URL der eigentlichen Webseite auf, lädt alle Daten und liefert direkt eine nach aktuellsten Standards optimierte Seite aus. Mehr als 10 Minuten dauert die gesamte Einrichtung nicht. Dafür werden direkt CSS- und Javascript-Dateien komprimiert, Bilder im hauseigenen Google-CDN optimiert und gespeichert, unnötige HTML-Inhalte entfernt und richtige Cache-Header gesendet. Wahlweise alles im Standard-Modus oder fein über eine Weboberfläche zu justieren.

Google präsentiert das schnelle Wunderwerk in einem eigenen Video:

Hört sich alles himmlisch an. Ist es auf den zweiten Blick leider nicht. Das erste Manko ist auch schon das nervigste: Der Dienst ist google-typisch im Beta-Stadium und eine reguläre Anmeldung ist nicht möglich. Über ein Google-Spreadsheat kann sich jeder Webmaster für den Dienst vormerken lassen. Ob es Auswahlkriterien für den Dienst gibt und wie hoch die Wartezeiten sind – darüber schweigt sich Google aus. Bei mir hat es lediglich einige Tage gedauert.

Erst einmal im Dienst angekommen, macht er absolut alles, was er auch soll. Selbst bei relativ gut optimierten Webseiten sorgt die Software noch für einen Zeitvorteil von ungefähr 20%. Bei schlecht optimierten Seiten sollen es laut Google dann bis zu 65% sein. Fanatiker einer guten Response Time wird das Ergebnis jedoch nicht freuen. Der Dienst läuft nach meinen Erfahrungen ausschließlich über US-Server. Auch das Konzept hat die Schwäche des doppelten Weges: Die Google-Server müssen erst den Inhalt vom eigentlichen Webserver aufrufen und das dauert seine Zeit, selbst wenn schon alle Grafiken gecacht sind und nur der HTML-Code angefordert wird. Das ist weit weg von der optimalen Lösung. Eine große Portion Vertrauen in Google müssen Dienstnutzer überdies bereit sein aufzubringen.

mod_pagespeed für Apache

Eleganter ist die Erweiterung mod_pagespeed für den Apache Webserver. Die Google-Software hakt sich fest in den Webserver ein und optimiert im Stil des PageSpeed Service gleich vor Ort.

Die Installation ist absolut simpel. Für CentOS/Fedora und Debian/Ubuntu gibt es fertige Pakete, die mit Root-Rechten auf dem Webserver binnen Minuten installiert werden können. Ich gehe einmal davon aus, dass fast alle Webserver aktuell auf 64bit basieren und entsprechend ist die Anleitung gestaltet. Es gibt jedoch auch 32bit-Pakete, die direkt auf der Webseite von mod_pagespeed heruntergeladen werden können.

Wir laden uns erst einmal die aktuellsten Pakete mit wget herunter:

Debian/Ubuntu
wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-stable_current_amd64.deb


CentOS/Fedora
wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-stable_current_x86_64.rpm

Danach kann das Paket einfach automatisch installiert werden:

Debian/Ubuntu
dpkg -i mod-pagespeed-*.deb
apt-get -f install


CentOS/Fedora
yum install at #falls "at" noch nicht installiert ist
rpm -U mod-pagespeed-*.rpm

Das war es schon. Einmal den Apache neustarten und schon ist die Erweiterung vollständig installiert. Händische Konfigurationen sind auch noch in der Konfigurationsdatei möglich. So können noch einzelne Parameter verändert oder ein CDN angeschlossen werden. Die Grundkonfiguration ist jedoch absolut ausreichend. Mit der Paketinstallation wird auch automatisch das Repository von Google installiert und so kann die Software ganz einfach in der Paketverwaltung mit allen anderen Paketen aktualisiert werden. Während des Aufrufes einer Webseite läuft dann der gleiche Prozess wie beim PageSpeed Service ab – bloß alles lokal. Die volle Kontrolle bleibt im Server. Auch ist der Aufruf ohne Umweg über einen US-Server von Google erheblich schneller. Möglicherweise entscheidende Millisekunden, wenn es um die beste Platzierung bei Google oder das ultimative Nutzungserlebnis geht.

Bloß aufgepasst: Sowohl der PageSpeed Service als auch mod_pagespeed cachen sehr aggressiv jegliche JS-, CSS und Bilddateien. Ändert sich etwas auf dem Server, wird diese Änderung womöglich erst deutlich später öffentlich, wenn der Dateiname gleich geblieben ist. Überprüfungen auf Änderungen existieren nicht.

Die Wahl des richtigen Systems ist Geschmacksache. Ich würde immer mod_pagespeed empfehlen, wenn die Installation von Programmen auf dem Server möglich ist. Ansonsten ist auch der PageSpeed Service eine solide Alternative mit kleinen Schwächen in der B-Note. In jedem Falle lohnt es sich, Webseiten mit den Google-Programmen automatisch optimieren zu lassen. Schließlich will ich auch selbst nicht ewig auf meine Webpräsenz warten.

(dpe)

Kategorien
Webdesign

Nichts für Freibeuter: Urheberrecht im Internet

Auch wenn viele Internetanwender das World Wide Web als rechtefreien Raum ansehen, in dem es alles gratis gibt – dem ist nicht so. Für Inhalte im Internet gilt das gleiche Urheberrecht wie auch für Artikel, Fotos und sonstige Werke in Zeitungen beziehungsweise im Hörfunk oder Fernsehen. Einfach kopieren und auf die eigene Seite stellen ist nicht erlaubt. Eine Einführung für Netzbürger.

Ob im persönlichen Blog oder auf professionellen Webseiten – viele Menschen stellen Inhalte in das Internet. Die vermeintlich neu geschaffenen Texte und Bilder sind nicht selten Mittelpunkt eines Konflikts. Wer darf wann was mit fremden Werken machen und wie können Sie Ihre eigenen Rechte wahrnehmen? Es kommt darauf an – wie immer in juristischen Dingen. Sorgfältige Beschäftigung mit dem Thema ist daher angebracht.

Was alles geschützt ist

Das Urheberrecht bildet die Grundlage jeder kreativen Arbeit. Ohne umständliche und lästige Eintragungen oder dass Sie als Urheber aktiv etwas dafür tun müssten, werden Ihnen als Verfasser oder Schöpfer umfassende Rechte an den erstellen Werken eingeräumt.

Wer ist Urheber und was ist ein Werk?

Machen wir es einfach: Wer ein Werk schafft, ist dessen Urheber. Dies können jedoch nur natürliche Personen wie der Autor dieses Textes werden. Körperschaften wie Vereine, Kapitalgesellschaften oder Stiftungen können grundsätzlich nie Urheber werden. Die Definition des Werkes ist dabei wesentlich schwieriger. Ein Werk muss persönlich gemacht, mit geistigem Gehalt gestaltet sein, eine wahrnehmbare Form besitzen und Individualität zum Ausdruck bringen. Eine schwierige Definition, die in der Realität jedoch nur ein wirkliches Problem kennt: die Individualität.

Nur etwas, was sich wirklich in den hauptsächlichen Punkten von Allgemeinem unterscheidet, kann ein eigenes Werk darstellen. Das ist einfach zu verstehen: Wenn ich „Bin im Supermarkt Eier kaufen“ auf twitter veröffentliche, kann das kaum ein eigenes Werk sein. Es fehlt an Unterscheidungskraft und überhaupt an einem Prozess der geistigen Schöpfung – kurz gesagt, an der Schöpfungshöhe.

Sind Dinge ohne nötige Schöpfungshöhe frei?

Banale und einfache Texte, wie die meisten Veröffentlichungen, vom kurzen Kommentar bis zum Twitter-Posting,  erfüllen die Schöpfungshöhe nicht und unterliegen daher nicht dem Urheberrechtsschutz. Anderes gilt für Bilder in Videos. Wohl die meisten veröffentlichten Fotos und einige Videos besitzen nicht die notwendige Schöpfungshöhe für die Geltung als Werk. Dennoch ist jedes einzelne Foto – sei es noch so banal- grundsätzlich als Lichtbildwerk geschützt.

Wann gilt das Urheberrecht?

Einmal ist alles ganz einfach. Das Recht am eigenen Werk beginnt mit dessen Schaffung. Das Ende des Urheberrechts ist regelmäßig 70 Jahre nach dem Tod des Urhebers.

Veröffentlichen, ohne Urheber zu sein

Niemand darf ein geschütztes Werk einfach so kopieren und veröffentlichen. Dennoch gibt das Recht einige Instrumente, die die Beziehungen zwischen Urheber und dem Rest der Welt vereinfachen.

Wie können Nutzungsrechte vergeben werden?

Dem Urheber steht es natürlich frei, anderen Menschen die Veröffentlichung des eigenen Werkes zu erlauben. Dazu kann er Nutzungsrechte vergeben. Dies sind begrenzte Rechte am erstellen Werk. Dagegen kann das Urheberrecht als Ganzes nie übertragen werden, es bleibt immer beim ursprünglichen Urheber.

Die einfachste Variante ist zugleich das einfache Nutzungsrecht. Damit gibt der Urheber einem Dritten die Erlaubnis, das Werk zu einem bestimmten Zweck zu veröffentlichen. Der Autor eines Artikels könnte so einem Online-Magazin die Veröffentlichung auf deren Webseite erlauben. Veröffentlicht das Magazin den Artikel jedoch auf anderen Webseiten, ist dies ohne Einschränkungen ein Verstoß gegen das Urheberrecht.

Umfängliche Rechte werden mit einem ausschließlichen Nutzungsrecht eingeräumt. Wird dies vereinbart, profitiert der Dritte von zwei Vorteilen: Das Werk kann er auf beliebig vielen Orten verwenden und kein anderer darf das Werk benutzen. Damit ist der Urheber jedoch nicht ohne Rechte, es bleibt immer noch sein Werk. Wollte nun unser Online-Magazin mit einem ausschließlichen Nutzungsrecht den Artikel auf einer rassistischen Seite veröffentlichen, kann der Autor dies unterbinden. Das Online-Magazin muss sogar bei jeder weiteren Veröffentlichung den Urheber um Erlaubnis fragen.

Sind Zitate erlaubt?

Natürlich darf aus geschützten Werken zitiert werden – aber nie unbeschränkt. Das Zitat ist der Mittelweg zwischen dem Schutz des Werkes und dem öffentlichen Interesse. So gibt es starre Grenzen für die Zulässigkeit eines Zitates. Komplettes Kopieren als Zitat ist grundsätzlich nicht erlaubt. Unter bestimmten Voraussetzungen dürfen komplette Werke im Rahmen wissenschaftlicher Arbeiten wiedergegeben werden. Im Internet ist das nicht erlaubt.

Textauszüge

Auszüge aus einem Text können grundsätzlich problemlos zitiert werden. Solange ein eigenes Werk mit kurzen und vor allem dem Zweck angemessenen Zitaten untermauert wird, gibt es keine Probleme. Wenn ein Satz als Erklärung des neuen Textes genügt, sind zusätzliche Passagen unter Umständen eine unerlaubte Verwendung. Auch alleinstehende Zitate ohne eigenen Bezug fallen meist nicht unter das Zitatrecht. Blogposts von anderen Seiten dürfen Sie also weder in beliebiger Länge noch ohne jedwede eigene Erläuterung in Ihrem Blog verwenden.

Bildzitate

Nun begeben wir uns auf rechtlich kompliziertes Terrain. Bilder durften bislang nicht als Zitat verwendet werden – selbst ein Ausschnitt aus einem Bild war nicht erlaubt. Inzwischen hat sich die Rechtsprechung geändert. Wird ein Bild in ein eigenes Werk erklärend mit Quellenangabe und unverändert eingebunden, sprechen Gerichte von einem wirksamen Bildzitat. Jedoch kann schon das Beschneiden des Bildes oder eine Farbkorrektur dazu führen, dass ein Zitatrecht nicht anerkannt wird.

Filmzitate

Lange Zeit noch schwieriger, ist ein Filmzitat. Dank Oliver Kalkofes satirischer Fernsehsendung „Kalkofes Mattscheibe“ ist auch das nun kein Problem mehr. Wer einen angemessen langen Ausschnitt aus einem Film verwendet, um damit ein eigenes künstlerisches Werk zu schaffen, darf ein Filmzitat verwenden. Dabei muss jedoch das Zitat zentraler Bestandteil des neuen Werkes sein. So wird Oliver Kalkofe auch in Zukunft ohne rechtliche Probleme so manche komische Shoppingsender-Moderatorin beim Verkauf von vibrierenden Massagematten verulken dürfen.

Fazit

So undurchdringlich wie Laien oft fürchten, ist das deutsche Urheberrecht letztendlich nicht. Es kann sogar ganz unterhaltsam und spannend sein. Wichtiger aber ist: Wenn Sie sich vor unliebsamen Folgen schützen möchten, sollten Sie auf jeden Fall wissen, ob und wie Sie fremden Content verwenden dürfen oder nicht.

Im nächsten Teil wird erklärt, welche Mittel bei einer unerlaubten Veröffentlichung zur Verfügung stehen.

(tm), (mm),

Kategorien
Design HTML/CSS

Hintergrundbilder eindrucksvoll mit CSS skalieren

Wie skaliert ringvemedia.com eigentlich das Hintergrundbild? Ein drweb-Leser fragt und wir haben uns die Seite genauer angeschaut.

Formatfüllende Hintergrundbilder und moderne Browser sind natürliche Feinde. Nur selten gelingt die perfekte Positionierung der Bilder und wenn, kommen gängige Methoden nicht ohne Flash oder JavaScript aus. Mit den guten alten Tabellen aus vergangenen HTML-Zeiten gelingt jedoch die verblüffend einfache Illusion des perfekten Hintergrundbildes.

Wie es sich für echte Illusionen gehört, ist der Effekt beeindruckend und der Trick banal. Allen Anfang bildet ein günstig dimensioniertes Hintergrundbild, das später dynamisch um einige Prozent hochskaliert wird. In Hinsicht auf aktuelle Auflösungen habe ich ein schönes Stadtmotiv mit der Größe von 1024×768 Pixeln gewählt.


Unser Testbild im Browser

Das Hintergrundbild

Für den Effekt des dynamischen Hintergrundbildes wird das gewählte Motiv als ganz normales Bild eingefügt und von einer Tabelle und zwei Div-Elementen umrahmt. Die sonst als „böse“ verschriebene Tabelle macht – nicht ganz im Sinne der Erfinder – den Effekt erst möglich.

<div id="bg">
<div>
<table cellpadding="0" cellspacing="0">
<tr>eigenlt
<td>
<img alt="background" src="files/bg.jpg" />
</td>
</tr>
</table>
</div>
</div>

Die Konstruktion an sich wirkt sehr obskur, ermöglicht aber, dank der besonderen Eigenschaften der Tabellen in HTML, die besten Voraussetzungen für die spätere Positionierung. Die eigentliche Hexenküche verbirgt sich im CSS. Zunächst werden alle Elemente mit Ausnahme des Hintergrundbildes auf maximale Höhe und Breite gebracht. Ebenfalls muss der Überlauf der Elemente verborgen werden, da sonst unschöne weiße Bereiche zu sehen sind und Scrollbalken eingeblendet werden.

html,body,#bg,#bg table,#bg td,#content {
width:100%;
height:100%;
overflow:hidden;
}

Einmal die Konstanten hergestellt, muss nur noch das Bild auf die richtige Größe und Position gebracht werden. Dazu benötigen wir einen gewissen Rahmen außerhalb des sichtbaren Bereiches, in den das Bild bei nicht exakter Proportion des Browserfensters mit der Grafik hinein laufen kann. Dies wird durch doppelte Ausmaße des zweiten Div-Elements mit einer negativen Verschiebung nach links oben erreicht.

#bg div {
position:absolute;
width:200%;
height:200%;
top:-50%;
left:-50%;
}

Im letzen Schritt der großen Formatierung wird nun endlich das Hintergrundbild positioniert und skaliert. Der konstruierte Rahmen beträgt einheitlich 50% und das Bild muss nur gänzlich in die Mitte gebracht werden. Hier schlägt die Stunde der völlig zu Recht nur in notwendigen Maßen zu verwendenden Tabelle. So wird das Bild vertikal und über den Umweg der Textformatierung auch horizontal zentriert. Leider ist die Interpretation der Kniffs über die Textformatierung je nach Browser unterschiedlich. Um die maximale Kompatibilität zu erreichen, wird zusätzlich das Hintergrundbild noch mit automatischem Außenabstand zentriert. Als Block-Element nimmt das Bild automatisch die vollständige Breite ein und kann als schönes Hintergrundbild brillieren.

#bg td {
vertical-align:middle;
text-align:center;
}
#bg img {
min-height:50%;
min-width:50%;
margin:0 auto;
display:block;
}

Kurz und Knapp: Das Bild wird immer auf die vollständige Breite des Browserfensters skaliert. Es wird automatisch zentriert und kann bei falschen Proportionen in einen umlaufenden Rahmen ausweichen.

Der Inhalt über dem Bild

Das Bild ist perfekt, aber immer noch ein normales Bild und nicht im Hintergrund. In einem weiteren Div-Element wird der Inhalt der Webseite absolut links oben positioniert. Anschließend muss nur noch der Seiteninhalt mit dem z-index vor das Hintergrundbild geholt werden.

#content {
position:absolute;
top:0;
left:0;
z-index:70;
overflow:auto;
}

Fertig! Das nicht ganz gewöhnliche Hintergrundbild ist voll XHTML 1.0 Strict und CSS level 2.1 valide. Mit Ausnahme von minimalen Abweichungen im Bereich von einigen Pixeln stellt jeder aktuelle Browser die selbstskalierende Grafik korrekt dar. Ein komplettes Beispiel der Anwendung gibt es mit einer abendlichen Impression von New York im ZIP-Archiv. ™

Kategorien
Webdesign

Einfache Suggest-Funktion mit AJAX und PHP

Immer mehr werden Webapplikationen den großen Brüdern auf dem Desktop zur Konkurrenz. Die gar nicht mehr so neue Technik AJAX bringt Leichtigkeit in die sonst starren Webseiten und ist variabel einsetzbar. Einer der ersten produktiven Anwendungen war „Google Suggest“ – eine Suchmaske, die während des Tippens zeitsparende Tipps gibt. Wir bauen sie nach.

Herkömmliche Suchsysteme sind langsam. Nach dem Eintippen muss entweder ein Button oder eine Taste gedrückt werden, die Webseite lädt neu und erst jetzt werden die Ergebnisse präsentiert. Deutlich einfacher geht`s mit einer Suche, die automatisch unter dem Suchfeld mögliche Suchbegriffe präsentiert. Nach dem Prinzip „Quick & Dirty“ lässt sich solch eine Suche in weniger als 15 Minuten umsetzen. Garantiert.

Screenshot

Formular bauen

Aller Anfang bildet ein herkömmliches HTML-Formular, das auch bei einer normalen Suchfunktion eingesetzt wird. Jedoch soll nach jedem Tastendruck eine Suche ausgelöst werden. Dies wird durch den Einbau der Javascript-Funktion suggest erreicht, die nach Tastendruck onkeyup den aktuellen Textinhalt this.value verarbeitet.

<input type="text" id="eingabe" name="q" onkeyup="suggest(this.value)" />

AJAX-Funktionen erstellen

Fast alle Browser haben keine Probleme mit AJAX und der verknüpften Verarbeitung von XML-Objekten. Leider gibt es immer Exoten, die AJAX höchstens als Fußballverein oder Putzmittel kennen. Mittels Überprüfung, ob ein AJAX-Objekt erzeugt werden kann, bekommt jeder Exot eine Fehlermeldung.

xmlHttp=httpXMLobjects(); if (xmlHttp==null) { alert ("Programm kann nicht laden. Kein AJAX verfügbar."); return; }

Ist AJAX verfügbar, wird nach jedem Tastendruck der Inhalt des Textfelds an die Funktion suggest weitergegeben. Dabei gibt es viele Möglichkeiten, welcher Inhalt im Textfeld stecken kann. Ist das Textfeld ganz leer, sollen natürlich auch keine Suchhilfen angezeigt werden. Dafür wird die Länge des übergebenen Strings suchbegriff überprüft. Ist der String leer, wird das Ausgabefeld ausgabe geleert.

if (suchbegriff.length==0) { document.getElementById("ausgabe").innerHTML=""; return; }

In den meisten Fällen ist jedoch ein Suchbegriff übergeben und dieser muss an den Server zur Suche geschickt werden. In diesem speziellen Fall habe ich PHP als geeignetes Backend gewählt. Für den „Versand“ des Suchbegriffs wird eine URL gebastelt, die an die Suchdatei processor.php den String suchbegriff und eine Zufallszahl Math.random() hängt. Die Zufallszahl unterbindet das Cachen der meisten Browser und sorgt somit für stets aktuelle Suchergebnisse. In den folgenden drei xmlHttp-Funktionen wird die oben definierte URL aufgerufen und auf Antwort des Servers gewartet.

var aufruf="processor.php"+"?q="+suchbegriff+"&random="+Math.random(); xmlHttp.onreadystatechange=stateChanged; xmlHttp.open("GET",aufruf,true); xmlHttp.send(null);

Suche in PHP

Ist der Suchbegriff erst einmal im PHP-Skript angekommen, ist die weitere Verarbeitung einfach. In diesem Fall wird ein Array durchsucht, kompliziertere Suchsysteme können jedoch ohne Probleme angeschlossenen werden – nur die Ausgabe muss wieder stimmen. Zuerst wird jeder Suchbegriff mit in einer Schleife mit den gegebenen Begriffen verglichen. Die Funktion strtolower glättet zunächst Suchbegriff und gegebene Terme auf Kleinschrift, um immer gleiche Ausgangssituationen zu erreichen.

Anschließend wird überprüft, ob der Suchbegriff $q mit der gleichen Anzahl Zeichen des gegebenen Begriffs übereinstimmt. Hierzu wird die Funktion substr() genutzt, die ausgehend von der Länge des Suchbegriffs strlen($q) Zeichen ausgibt. Beispiel: Der Suchbegriff „ma“ wird eingegeben. Mittels strlen wird eine Länge des String von 2 Zeichen ermittelt. Der aktuell zu überprüfende Begriff ist „Manuel“. Die Funktion substr liefert mit diesem Begriff und der Länge des Suchbegriffs von 2 Zeichen die Ausgabe „ma“. Dies stimmt also mit dem Suchbegriff überein und kann den Suchtipps eingefügt werden.

if (strtolower($q)==strtolower(substr($keywords[$i],0,strlen($q)))) { $hint= $hint.‘ - ‘.$keywords[$i]; }

Suchtipps anzeigen

Mit der Suchantwort aus PHP in den Händen ist das Kunstwerk der Suggest-Suche fast schon geschafft. Die Ausgabe des PHP-Skripts muss nur noch unter dem Suchfeld platziert werden. Hierzu wird ein Platzhalter unter dem Input-Feld angebracht, in den gleich die Suchtipps kommen.

<div id="ausgabe"></div>

Zum Einfügen der Suchtipps wartet AJAX auf den fertigen Aufruf. Je nach Engine wird der komplettierte Aufruf von der Funktion xmlHttp.readyState als „4“ oder „complete“ übergeben. War somit alles erfolgreich, kann die PHP-Antwort als xmlHttp.responseText in das HTML-Element ausgabe eingefügt werden.

if (xmlHttp.readyState==4 || xmlHttp.readyState=="complete") { document.getElementById("ausgabe").innerHTML=xmlHttp.responseText; }

Fertig! Eine einfache Suche mit automatischen Suchtipps funktioniert. Im angehängten Skript wurde ein einfaches Adressbuch realisiert, das alle möglichen Suchvarianten präsentiert. Natürlich kann die grundlegende Funktion in fast unendlich viele Prozesse integriert und erweitert werden. Dabei bleibt jedoch das grundsätzliche Prinzip immer gleich. Eingabe, Backend-Aufruf, Antwort, Einfügen. That`s AJAX! ™

Die Dateien des Artikel zum Download (ZIP)