Web

Köchelverzeichnis für IT-Alarme

10.02.2006
Eine Technik übersetzt Netz- und Server-Aktivitäten zur besseren Störungserkennung in Musik.

Der Mensch reagiert am sensibelsten auf Töne, meint ein Forschungsteam am kanadischen Sheridan College Institute of Technology and Advanced Learning. Es hat diese Erkenntnis auf den Bereich System-Management übertragen. Nun präsentierten die Wissenschaftler die Ergebnisse von mehr als zwei Jahren Projektarbeit im Bereich Information Music (iSIC).

Instrumentarium

SMPT-Server - SMTP-Pakete - Keyboard;

SMPT-Server - SMPT- Response Code - Flügel;

SMPT-Server - SMPT Rcpt to command - Akustikgitarre/Sitar;

SMPT-Server - SMPT 5xxx Codes - Windspiel;

SMPT-Server - TCP-Syn - Tempo (alle Instrumente);

SMPT-Server - Anzahl der aktiven TCP-Sessions - Akkorde;

Mail-Filter - SPAM - Violine;

Spoolers - SMPT Antwortzeit - Harfe;

SMPT-Server - Serverlast - Schlagzeug.

"Ähnlich wie bei einem Babyphone hörst du genau, wenn das Baby nicht glücklich ist", erklärt Projektleiter William Farkas das in der eigenen IT-Abteilung realisierte Konzept gegenüber der US-Fachpresse. "Das Auftauchen von Geigen etwa weist dich auf eine Spam-Attacke hin."

Hinter den klassisch anmutenden Musikstücken, die Administratoren der Hochschule seit kurzem zu hören bekommen (Beispiele unter http://www.soundtomind.com/site/listen.html),

stecken die aufgezeichneten Reports der Systemdaten. Diese werden von der "iSIC Sound Engine" in Töne umgewandelt, wobei jedem Event eine bestimmte Musik zugeordnet ist. Die Ausgabe übernimmt ein Yamaha-Synthesizer.

Laut Farkas sind die Mitarbeiter der IT-Abteilung der Hochschule inzwischen darauf trainiert, Instrumente, Akkorde, Tempi und andere musikalische Elemente als Informationen über die E-Mail-Aktivitäten der in drei Subnetzen arbeitenden 15 Server zu interpretieren. Parallel dazu werden die Daten aber auch in grafischer Form dargestellt. Nach Meinung des Projektleiters hat die akustische Wiedergabe durchaus ihre Vorteile: So seien die meisten herkömmlichen Monitoring-Systems für die linke Gehirnhälfte gestaltet, wo viel Augenmerk auf Details und Analyse gelegt wird. Die rechte Seite des Gehirns hingegen verarbeite Musik. Sie könne ohne viel Aufwand selbst bei komplexem Input Muster erkennen. Bei Statistiken gehe es im Prinzip um nichts anderes, so Farkas.

Der Projektleiter ist optimistisch, nach Abschluss des Pilotprogramms auch eine kommerziell nutzbare Version der Anwendung zu entwickeln. Chancen sieht Farkas vor allem im Bereich Web-Services, etwa bei E-Commerce-Firmen. So könnten Händler und Manager den Unternehmensdaten "zuhören", während sie sich gleichzeitig in konventioneller Weise mit ihnen beschäftigten.

Farkas beschrieb die Musik als beruhigend, schön und eingängig. Oft sei es schwierig, Zuhörern klar zu machen, dass es sich dabei wirklich um interpretierbare Daten handle. Besonders ältere Menschen seien der Ansicht, dass Musik und Arbeit nicht zusammenpassen. (mb)