Schlagwortarchiv für: KI

Was Joseph Weizenbaum wohl zu ChatGPT gesagt hätte?

Die Leistungsfähigkeit von ChatGPT beeindruckt gerade die Welt – zu Recht. Noch nie hat ein textbasiertes Dialogsystem, denn genau das ist ein Chatbot, einen solchen Output produziert. Für den Laien sind die Texte schon jetzt nicht mehr von denen menschlicher Autoren zu unterscheiden. Automatisieren wir jetzt bereitwillig unsere Schriftkultur?

Der Informatiker Joseph Weizenbaum, Erfinder des ersten Chatbots ELIZA im Jahr 1966, hatte dazu eine klare Haltung: KI-Systeme sollten nur zur Informationsbeschaffung eingesetzt werden, die Entscheidungsgewalt über die so bereitgestellten Daten müsse aber immer in menschlicher Hand bleiben. Was machte den begnadeten MIT-Informatiker zu einem solchen Kritiker seiner eigenen Zunft und Erfindung? Ihn hatte der naiv-begeisterte Umgang mit ELIZA schockiert. Der Chatbot simulierte das Gespräch mit einem menschlichen Psychotherapeuten, woraufhin viele Probanden ihre innersten Gedanken und Gefühle preisgaben, ohne zu merken, dass lediglich ein Chatbot auf Stichworte reagierte.

KI-Chatbots simulieren lediglich Sprache

Nun befinden wir uns mit GPT-3 im Jahr 2023. Die dahinterstehende KI ist so viel leistungsfähiger als die von ELIZA, was sie zu entsprechend besseren Simulationen von sprachlichen Texten befähigt. Insbesondere sprachlicher Output, der uns Menschen emotional berührt, kann heute schon hinlänglich und in Zukunft täuschend echt simuliert werden. Es wird aber immer nur eine maschinelle Simulation von Sprache und Emotion sein, wenn auch eine glaubwürdige. Genau deswegen gelten die Einwände Weizenbaums auch heute noch: IT ist immer nur ein Hilfsmittel und Werkzeug, niemals ein Gegenüber. Das dürfen wir nicht vergessen, auch wenn uns GPT-3 – und erst recht seine Nachfolger – nahezu perfekte Sprachmodelle bieten werden: Da spricht niemand.

 

Sinnvolle Werkzeuge zur Informationsbeschaffung

Künstliche Intelligenzen sind sehr gute Werkzeuge, um große Datenmengen zu durchforsten. Big Data Mining ist ohne KI schon heute nicht mehr möglich, sei es bei der Suche nach Mustern in der Genomsequenzierung oder als Suchmaschine im World Wide Web. Sie spielen überall dort ihre Stärken aus, wo keine eindeutigen Antworten zu finden sind, sondern lediglich Wahrscheinlichkeiten. Das WWW ist daher Hauptanwendungsfeld geworden: Nach dem verkündeten Einstieg von Microsoft bei OpenAI hat Google kurz darauf mit Bard seinen ChatGPT-Konkurrenten vorgestellt. Im Rennen um die beste Suchmaschine schenken sich die Internetgiganten nichts. Künstliche Intelligenzen sind hierbei ein fester Bestandteil geworden. Wir werden lernen, selbstverständlich mit ihnen umzugehen, genauso wie wir stetig mehr automatisierte Prozesse in unseren Alltag integrieren.

Kritischen Umgang mit KI und Automatisierung lernen

Wichtig im täglichen Umgang mit KI und Automatisierung bleibt, dass wir sie als Werkzeuge begreifen, die unserer Bedienung oder zumindest regelmäßigen Kontrolle bedürfen. Die Verantwortung liegt beim Anwender, nicht beim Werkzeug. Deshalb darf der Nutzer auch nicht die Entscheidungsgewalt aus der Hand geben. Ein informierter und bewusster Umgang mit KI und Automatisierung muss es schaffen, einen sinnvollen Nutzen aus den Werkzeugen zu ziehen und deren inhärente Gefahren einzuhegen. Das ist ein gesellschaftlicher Lernprozess, den wir aber in unserer Menschheitsgeschichte schon mehrfach durchlaufen haben, und auch diesmal bewältigen sollten.

 

Ich persönlich habe mir angewöhnt, meine eigenen automatischen Alltagshelfer nicht aus den Augen zu verlieren, gerade dann, wenn sie reibungslos funktionieren. Das ist manchmal mühsam, aber notwendig, um sie regelmäßig an veränderte Bedürfnisse anzupassen. Dabei habe ich die Erfahrung gemacht, dass regelmäßiges Infragestellen der gewohnten digitalen Anwendungen mitunter zu neuen Ideen führt, wie man sie selbst oder die Art und Weise, wie sie genutzt werden, noch ein bisschen besser machen kann. Die Mühe lohnt sich also.

Live und in Farbe: Warum Logistiker mit Power BI schneller agieren

Felix Samu, Tristan Boehmke 

Logistikdienstleister arbeiten naturgemäß sehr datenlastig. Von der Abholung bis zur Zustellung fallen in jedem Zwischenschritt Informationen an, die in ein oder mehrere Systeme einfließen. Auftragsdaten, Kundendaten, Statusinformationen oder Tourenpläne: Viele Daten zu sammeln war nie das Problem für Logistiker. Darum sind Datenbanken und Tabellen eine gelernte Tradition für SpeditionenAber selbst, wenn sich mit deren Ausdrucken ganze Büros tapezieren ließen, halten viele Unternehmen an ihren gewohnten Programmen festFür das bloße Erfassen von Daten reichen die alten und bewährten Tools zum Teil vielleicht noch aus. Aber die eigentliche Herausforderung ist, diese Daten in Beziehung zueinander zu setzen und entsprechend auszuwerten. Und an dieser Stelle liefern moderne Business Intelligence-Lösungen wie Microsofts Power BI entscheidende Vorteile. 

 

 

Abweichungen schneller erkennen 

Power BI bietet zuallererst dank seines Dashboards mit starken Visualisierungsfunktionen einen schnellen Überblick über die aktuelle Ist-Situation. Damit sind Ausreißer auf einem Kurvendiagramm schnell zu identifizieren. Um sie muss es bei der Analyse der Daten gehen, denn hinter ihnen steckt stets eine Geschichte, die Tabellenkalkulationen nicht preisgeben könnenPower BI setzt dort mit einer zentralen Funktion an: Der Anomaly DetectionSie zeigt Ausreißer von der Norm nicht nur an, sondern liefert per Klick sogar Klartext-Erklärungen dafür. Diese werden nach den plausibelsten Begründungen in absteigender Reihenfolge aufgelistet. Die Sensibilität des Algorithmus zur Erkennung von Ausreißern lässt sich freilich nach Kundenwünschen feintunen. Außerdem sorgen einstellbare Alerts dafür, dass diese Meldungen als Push-Benachrichtigungen des Systems schneller bei den Nutzern ankommen. 

 

Power BI begründet Schwankungen und warnt frühzeitig 

Dafür, dass die Erkennung solcher Anomalien überhaupt möglich ist, sorgt ein weiteres zentrales Feature der Power BI: die Key Influencer, also die größten Einflussfaktoren. Wenn beispielsweise auf einer Ausgangsrelation eines Logistikers normalerweise X Sendungen anliegen und nun plötzlich dramatisch viel mehr Sendungen der Menge Y anstehen, kann das System herleiten, woher dieser Peak stammt. Womöglich war es ein Kunde oder Partner, der extrem viel geliefert hat. Womöglich lag es aber auch am vorigen Feiertag und es konnte nicht verladen werden, weswegen sich die Menge am Folgetag entsprechend erhöht. Ein Klick auf den entsprechenden Punkt im Kurvendiagramm genügt für eine Erklärung. Und Power BI geht noch einen Schritt weiter: Mit der Funktion Summarize wird sogar das ganze Diagramm in einem kurzen Fließtext zusammengefasst, der eine zusätzliche Unterstützung bei der Interpretation des Verlaufs geben kann. 

Ausreißer und die zugehörigen Alerts lassen sich allerdings nicht nur für Sendungsmengen einrichten. Sinkt etwa der Deckungsbeitrag für einen Kunden von zum Beispiel bislang 20 auf nunmehr 15 Prozent, lässt sich auch dafür eine warnende Push-Nachricht ausgeben. Und auch diese Meldung lässt sich per Klick analysieren und schnell die entsprechenden Ursachen finden. Der große Vorteil: Es handelt sich hierbei um Live-Daten, die eine schnelle Reaktion ermöglichen – statt, wie bislang oft genug noch üblich, auf historische Auswertungen einige Wochen im Nachgang zu den tatsächlichen Ereignissen zu setzen. 

 

 

Mit dem Analysebaum den Ursachen an die Wurzel 

Wer sich tiefergehend mit Ursachenanalysen beschäftigen oder ad hoc bestimmte Daten per Drilldown-Menü erkunden möchte, findet mit dem Analysebaum ein weiteres mächtiges Werkzeug der Power BI. So lässt sich beispielsweise der Erlös zu einem beliebigen Transportauftrag bis auf die unterste Ebene aufklappen und nachvollziehen – ein wichtiges Tool für jeden Logistiker. Mittels der sogenannten KI-Teilung werden zudem automatisch hohe und niedrige Werte in den Daten ermittelt und ausgegeben, oder auch ein Wechsel von Höchstwert zu Tiefstwert und zurück zu HöchstwertBeispielsweise, wenn Sie Mengenschwankungen nach Standorten mit den höchsten Abweichungen aufschlüsseln lassen, dann nach Kundentyp und folgend nach Produktart. So erhalten Sie rasch ein tiefgehendes Verständnis über die Strukturen innerhalb des Unternehmens, die weit über das hinausgehen, was simple Datenbanken und Tabellenkalkulationen liefern können. 

Abweichungen dank Live-Daten schneller erkennen und früher reagieren können – das sind die zentralen Vorteile der Power BI. Preislich ist diese Lösung auch schon für kleine und mittlere Unternehmen umsetzbar. Höchste Zeit also, sich von den tapetenartigen Tabellenausdrucken der Vergangenheit zu verabschieden. 

 

Big Data? Na klar, meine Excel-Datei ist schon 15 MB groß!

Big Data hier, Big Data da. Jeder spricht darüber, es ist das ganz große Ding, das keiner verpassen will. Keine Konferenz zum Thema Digitalisierung ohne nicht wenigstens einen Vortrag im Zusammenhang mit Big Data. Auch im speditionellen Umfeld geistert das griffige Schlagwort herum und man hat das Gefühl: Alle arbeiten entweder schon daran, etwas damit zu machen, oder setzen es in irgendeiner Form bereits ein. An dieser Stelle möchte ich Sie zwar nicht desillusionieren, aber ich sage es mal so: Nur weil Ihre Exceldatei 15 Megabyte groß ist, nutzen Sie noch lange nicht Big Data. Spoiler Alarm: Wahrscheinlich brauchen Sie es in den nächsten Jahren nicht einmal.

Big Data als Blackbox

Aber fangen wir einmal vorne an. Big Data wird häufig als Sammelbegriff für viele weitere Trends benutzt, die durchaus damit kombinierbar sind, aber nicht dasselbe meinen. Künstliche Intelligenz (KI) gehört zum Beispiel dazu. Sie kann dabei helfen, die Big-Data aufzubereiten, zu analysieren, schließlich zu interpretieren und auf dieser Grundlage bestimmte Probleme lösen. Sie hilft bei ergebnisoffenen Analysen, wie zum Beispiel Prognosen. Aber dazu brauchen Sie zunächst einmal jene großen Datenmengen. Und das sind überwiegend unstrukturierte Massendaten, die sozusagen wie durch einen Trichter in eine Blackbox laufen. Das beste Beispiel dafür, wo solche Informationen anfallen, sind soziale Medien. Nehmen wir zum Beispiel Twitter: Auf der Plattform posten User pro Tag etwa 500 Millionen Tweets. Diese haben zwar einen Zeitstempel und sind eindeutig Benutzern zuzuordnen. Aber diese Datenmenge strukturiert auszuwerten – zum Beispiel, um bestimmte Trends oder Stimmungen erkennen zu wollen – ist eine enorme Herausforderung. Hashtags helfen ein wenig dabei, aber sie kommen längst nicht in allen Tweets vor. Hier geht es darum, Millionen und Milliarden von Datensätzen schnell zu analysieren.

 

Excel: Nur die Größe zählt?

Kaum mit dem speditionellen Umfeld zu vergleichen, richtig? Große Stückgutkooperationen bewegen pro Tag vielleicht 20.000 bis 40.000 Sendungen. Die in diesem Zusammenhang anfallenden Datensätze fallen also längst nicht unter Big Data. Aber nicht nur aufgrund der Menge von Informationen, sondern auch wegen ihrer Struktur. Denn als Logistiker sammeln sie so gut wie keine unstrukturierten Massendaten. Sie haben genaue Informationen über Verlader, Empfänger, Zustelltermine, Kapazitäten, Mengen und so weiter. Weil diese Daten so gut strukturiert sind, nutzen vor allem mittelständische Logistiker nach wie vor relationale Datenbanken, die mit Tabellen funktionieren. Und damit sind wir auch schon bei den nach wie vor unglaublich beliebten Excel-Dateien, die gerade bei mittelständischen Speditionen das Maß aller Dinge sind. Generell kann man sagen: Je größer die Exceldatei, desto besser fühlen sich alle Beteiligten. „Wow, meine Excel ist schon 15 MB groß, nicht schlecht!“ Da stecken fraglos viele Daten drin, aber mit Big Data hat das ungefähr so viel gemeinsam wie eine Diskette mit den Anforderungen der Digitalisierung im 21. Jahrhundert.

 

Excel ist außerdem recht begrenzt. Nicht nur, dass die Software nicht mehr als 1,04 Millionen Zeilen verwalten kann. Hinzu kommt, dass selbst das schon eine reichlich theoretische Größe ist. Denn lange bevor Sie an diese Grenze stoßen, wird die Datei auf eine derartige Größe angeschwollen sein, dass Sie sie kaum noch vernünftig bearbeiten und auswerten können. Spätestens bei Dateien von 100 MB ist dann endgültig Schluss, ganz egal, wie leistungsfähig Ihr Computer ist. Und auch mit der besten Tabellenkalkulation lässt sich dank Formeln und Funktionen nur ermitteln, was ist. Prognosen sind damit nicht möglich.

BI statt BD!

Fassen wir also zusammen: Per Definition passt Big Data im Moment noch nicht so recht in die Speditionswelt, weil es dabei um (teilweise unstrukturierte) Massendaten geht. Speditionen hingegen sammeln und verarbeiten zahlreiche strukturierte Daten, die sich auch im Jahre 2020 noch in einem überschaubaren Rahmen bewegen. Und weil im Mittelstand nach wie vor häufig genug noch Excel zur Auswertung benutzt wird und die Datenmengen auch in Zukunft nicht auf hunderte Millionen oder gar Milliarden Datensätze pro Tag anschwellen werden, wird Big Data auch in einigen Jahren für die insgesamt mittelständisch geprägte Branche keine große Rolle spielen. Was hingegen tatsächlich statt BD wichtiger wird, ist BI – Business Intelligence.

Intelligente, automatisierte und schnell verfügbare Auswertungen sind das zentrale Thema jeder Spedition. Die Basis dafür bilden moderne relationale Datenbanken wie SQL, die tatsächlich auf die stetig steigenden Mengen an strukturierten Daten ausgelegt sind. Jede klassische BI-Lösung fußt auf einer solchen Datenbank, die zudem auch ohne künstliche Intelligenz fähig ist, Prognosen zu erstellen. Auch wenn damit zum Beispiel im Hinblick auf Mengenschwankungen keine absolute Planungssicherheit möglich ist, kann man sich doch zumindest annähern. Aber auch das beste Prognosemodell wäre an Sonderfällen wie der aktuellen SARS-CoV-2-Pandemie gescheitert.

Big Data ist also nicht gleichbedeutend mit much Data, Prognosen bereiten nicht auf jede Eventualität vor und eine KI ersetzt keine BI. Für Speditionen sind die klassischen, historischen Auswertungen noch immer das Beste, weil sie so exakte Ergebnisse auf eindeutige Abfragen liefern. Business Intelligence macht es möglich. Wenn es also um die Zukunft der Speditionen geht, ist der nächste Schritt erst einmal der, von Excel zu einer echten Business Intelligence zu wechseln. Erst danach lohnt sich ein Blick in die Glaskugel.

Citrix-Studie: Die Zukunft der Arbeit 2035

Sicher haben Sie sich auch schon einmal Gedanken gemacht, wie Sie wohl in zehn oder 15 Jahren arbeiten werden. Welche Anforderungen wird man an Sie stellen? Wird Technologie Ihre Arbeit erleichtern? Was kommt wohl auf uns zu, wenn wir von den aktuellen Entwicklungen ausgehen? Damit befasst sich die Citrix-Studie zur Zukunft der Arbeit im Jahr 2035. Für die Untersuchung wurden mehr als 500 Führungskräfte und 1.000 Mitarbeiter aus Konzernen und mittelständischen Betrieben in den USA, Großbritannien, Deutschland, Frankreich und den Niederlanden befragt. Herausgekommen ist ein spannender und facettenreicher Blick in eine mögliche Zukunft. 

Digital DisconnectKI und die Arbeit der Zukunft 

Wer auf die rasante Entwicklung in den vergangenen 15 Jahren blickt, erhält ein besseres Verständnis dafür, wie groß die Umwälzung wohl in den kommenden 15 Jahren sein wird: 2005 flog erstmals seit der Columbia-Katastrophe wieder ein Spaceshuttle ins All – damals galt das noch als der beste Weg in den Orbit. Heute fliegen Space-X-Raketen Versorgungsgüter zur internationalen Weltraumstation. Adobe übernahm Macromedia, Sie wissen schon: Die mit dem Flash-Player, dessen Updates für Ihren Browser Sie regelmäßig erfreuen. Und Künstliche Intelligenz schien von unserem Alltag noch ziemlich weit weg. Zu dieser Zeit entwickelten Peter Pirolli und Stuart Card ein wichtiges Modell dafür, wie große Datenmengen durch KI so aufbereitet werden können, dass Menschen daraus Erkenntnisse gewinnen könnenAber in einer Zeit, als es hierzulande kaum Internetflatrates gab und ISDN noch weit verbreitet war, klang das nach ferner Zukunftsmusik. Heute sehen wir das freilich anders. 

Und in Zukunft noch viel mehr: Laut der Citrix-Studie schätzen 77 Prozent aller Befragten, dass Künstliche Intelligenz bis 2035 ihre Entscheidungsprozesse entscheidend beschleunigen wird. So weit, so gut. Aber wenn es darum geht, ob KI die Produktivität von Arbeitern in dieser Zeit um mindestens das doppelte steigern wird, ergibt sich eine klaffende Lücke zwischen der Einschätzung von befragten Geschäftsführern und Mitarbeitern: 73 Prozent der Ersteren glauben daran, aber lediglich 39 Prozent der Letzteren. Die Aussichten der schönen neuen Welt dank künstlicher Intelligenz werden also unterschiedlich bewertet. Die Studie nennt das den Digital Disconnect. Ein Phänomen, dem wir nicht machtlos gegenüberstehen, wie die Autoren betonen. Die Botschaft ist eindeutig: Um diese Diskrepanz zu überbrücken, müssen sich die Führungskräfte mit der Weiterbildung ihrer Mitarbeiter befassen und eine überzeugende Vision vermitteln, in der die Technologie eine zusätzliche und nicht eine negative Rolle im Leben der Mitarbeiter spielen wird. 

 

 

Vier Zukunftsmodelle der Arbeit 

Die Studie präsentiert vier unterschiedliche Visionen einer zukünftigen Arbeitswelt: 

  1. Freelance Frontiers
    Organisationen haben nur wenige feste und einen großen Pool von freien Mitarbeitern. Hochentwickelte Technologie-Tools ermöglichen effizientes und effektives Arbeiten aus der Ferne, und Mitarbeiter können unabhängig von ihrem Standort weltweit in derselben Umgebung mit Hilfe von Virtual-Reality-Plattformen (VR) trainieren und zusammenarbeiten. 
  2. Platform Plugins
    Künstliche Intelligenz, maschinelles Lernen sowie Datenerfassungs- und -analyse-Tools sind so leistungsfähig und zuverlässig geworden, dass sie es Unternehmen ermöglicht haben, ihre Stammbelegschaft drastisch zu verkleinern. Technologie hat die potenziellen und tatsächlichen Reichweiten von Großunternehmen und kleinen Betrieben nivelliert. 
  3. Powered Productives
    Organisationen profitieren von einem gesteigerten Produktivitätsniveau aufgrund der erfolgreichen Verbindung von Mensch und Technik. Die Unternehmen mit den anpassungsfähigsten Arbeitnehmern schneiden am besten ab, was in einigen Sektoren zu Monopolen führen kann. Aber Arbeitnehmer müssen für sich entscheiden, wie sie sich damit fühlen, wenn ihre Daten von ihrem Arbeitgeber laufend überwacht werden. 
  4. Automation Corporations
    Die größten Unternehmen können neue Technologien schneller einführen, was ihnen einen Vorteil gegenüber der Konkurrenz verschafft. Talent Scouting ist wichtiger geworden, auch wenn menschliche Arbeitskraft ersetzbarer geworden ist. Aber da immer mehr Rollen automatisiert werden, müssen sich Arbeitnehmer immer schneller weiterbilden, um den Anschluss nicht zu verpassen. 

 

 

Und welche Version der Zukunft macht das Rennen? 

Die Citrix-Studie ist keine Glaskugel. Sie bewertet lediglich aktuelle Entwicklungen und prognostiziert darauf aufbauend bestimmte Möglichkeiten. Und die sind durchaus spannend. Niemand weiß, ob und welche dieser Versionen nun eintreffen wird. Nur wenige hätten die gegenwärtige Situation vorhersagen können, geschweige denn einen Moment, der noch 15 Jahre entfernt ist. Aber es ist spannend nachzuvollziehen, wie wir eine Arbeitswelt schaffen können, die den unterschiedlichen Anforderungen von Kunden und Mitarbeitern gerecht wirdWir haben in dieser Pandemie bereits erlebt, wie schnell sich unsere Arbeitserfahrung verändern kann – Stichworte: Homeoffice, Virtualisierung und Cloud. 

Geschäftsführer, so das Fazit der Studie, müssen Arbeitsplätze und IT-Systeme um intelligente, inspirierende Erfahrungen herum neugestalten. Denn sie befähigen ihre Mitarbeiter dazu, Technologie effektiv zu nutzen, Probleme auf kreative Weise zu lösen und Entscheidungen schneller zu treffen. Um in einer ungewissen Zukunft weiterhin florieren zu können, müssen Unternehmen letztendlich eine Belegschaft aufbauen, die in der Lage ist, sich an veränderte Bedingungen anzupassen und schnell innovativ zu sein. Sicher ist: An Technologie, die leicht und schnell skalierbar ist sowie agiles Arbeiten erleichtert, führt kein Weg vorbei. 

 

Die vollständige Studie (in englisch) können sie kostenlos hier herunterladen.