Beiträge

Künstliche Intelligenz

Selbstlernende Maschinen nutzen Big Data und Cloud-Computing, um laufend die abhängigen Prozesse zu optimieren.

von Andreas Fuhrich

Eine eindeutige Definition des Begriffs „Künstliche Intelligenz“ (KI) sucht man zwar vergebens, aber zumindest für den aktuellen, die Wirtschaft betreffenden Diskurs lässt er sich relativ klar skizzieren. Im Wesentlichen lässt er sich dabei in die Bereiche des maschinellen Lernens und des Cognitive Computings aufteilen:

Unter maschinellem Lernen versteht man die Fähigkeit eines künstlichen Systems, aus Erfahrung Wissen zu generieren. Dabei werden nicht nur Beispiele auswendig gelernt, sondern Muster und Gesetzmäßigkeiten erkannt, wodurch es in die Lage versetzt wird, auch unbekannte Daten beurteilen zu können. Kognitive Systeme gehen bei der Humanisierung der Maschine noch einen Schritt weiter. Neben der Fähigkeit des Lernens sind sie auch in der Lage, mit Ambiguitäten und Unschärfen umzugehen. Wichtige Voraussetzungen für eine KI beim „natürlichen“ Umgang mit menschlicher Sprache oder dem Deuten von Emotionen aus einer Gesichtsmimik.

Durch die Entwicklung der Informationstechnologie sind immer größere Datenmengen (Big Data) verfügbar. Diese enthalten oft implizites Wissen, das, wenn es bekannt wäre, große wirtschaftliche oder wissenschaftliche Bedeutung hätte. Unter Data-Mining versteht man die Suche nach potenziell nützlichem Wissen in großen Datenmengen – maschinelle Lernverfahren gehören zu den Schlüsseltechnologien innerhalb dieses Gebiets. Sie unterstützen den Data-Mining-Prozess vor allem beim Aufspüren neuer Muster und Gesetzmäßigkeiten. Andererseits unterstützt der Data-Mining-Prozess aber auch das maschinelle Lernen, indem dadurch neue Lerndaten zur Verfügung gestellt werden.
Zusätzlich profitiert das maschinelle Lernen von den Entwicklungen der Cloud-Technologie, denn flexible Rechenkapazitäten und Managed Services machen den Einsatz von Machine-Learning einfacher. Die großen Cloud-Anbieter wie Amazon, Google und Microsoft bieten Machine-Learning bereits als Schnittstelle (API) an. Durch Open-Source-Projekte wie Prediction.io oder TensorFlow steht zudem Technologie frei zur Verfügung, auf der man aufsetzen kann.

Nach aktuellen Prognosen von Crisp Research werden sich die Ausgaben für Infrastruktur, Software und Plattformen, Algorithmen-Design und verbundene Dienstleistungen von rund 1,96 Mrd. Euro in 2015 auf rund 15 Mrd. Euro im Jahr 2020 nahezu verzehnfachen.(1)
Einsatzmöglichkeiten für künstliche Intelligenz entstehen dabei für nahezu alle Branchen, weshalb sich CIOs und Digitalisierungsverantwortliche darauf gefasst machen sollten, dass nicht nur unternehmensintern diese Art von Skills nachgefragt werden. Die Anzahl an Machine-Learning-Spezialisten ist begrenzt und die Schnittmenge derjenigen, die auch noch Business-Verständnis mitbringen, umso kleiner. Für Unternehmen ist es daher umso wichtiger, sich rechtzeitig um Experten für den eigenen Betrieb zu bemühen, z. B. durch Kooperationen mit Universitäten, um unmittelbar die Nachwuchskräfte zu binden, die auf dem freien Arbeitsmarkt kaum zur Verfügung stehen werden.

Künstliche Intelligenz: Trends

Digitale Assistenten
Bei digitalen Assistenten mit Spracherkennung hat es in den letzten Jahren ein wahres Wettrüsten gegeben. Siri, Cortana und OK Google stritten um das beste System und mit Alexa von Amazon ist jetzt auch noch ein neuer Player auf den Markt gekommen. In Zukunft werden solche digitalen Assistenten für Geschäftsprozesse immer wichtiger werden. Typische Sekretärs-Aufgaben, wie das Anlegen von Terminen oder das Buchen von Geschäftsreisen werden immer häufiger durch solche Systeme vorgenommen.

Smart Cars
Smart Cars bieten jetzt schon einige auf künstlicher Intelligenz beruhende Möglichkeiten. Bremsassistenten sind in der Lage, auf plötzliche Hindernisse oder Stauenden zu reagieren. Tempomaten erkennen Verkehrsschilder und regeln die Geschwindigkeit selbstständig. Auch das voll automatische Einparken ist keine Zukunftsmusik mehr. Fleißig geforscht wird noch am komplett autonom fahrenden Auto, welches schon in naher Zukunft Marktreife erlangen dürfte.

Smart Farming
Unter Smart Farming versteht man verschiedene, teils zusammenarbeitende intelligente Systeme in der Landwirtschaft. Sowohl Daten von Wetterdiensten als auch die eigener Sensoren, die beispielsweise den Säuregehalt im Boden messen, nutzen intelligente Systeme, um Dünger optimal zu dosieren oder die Felder durch automatische Anlagen zu sprenkeln. Selbst Landmaschinen können basierend auf den analysierten Daten zu den richtigen Zeiten autonom die Felder bewirtschaften.

Cobots
Unter Cobots versteht man autonom operierende Roboter, die in unmittelbarer Umgebung des Menschen eingesetzt werden können. Dabei dienen sie beispielsweise in der Montage als Assistenten, in dem sie selbstständig erkennen, welche Teile oder Werkzeuge der Monteur für seinen nächsten Schritt benötigt, diese herbeischaffen und dem Monteur anreichen. Cobots sind ein wichtiger Bestandteil von Industrie-4.0-Konzepten, welche ohne künstliche Intelligenz nicht denkbar sind.

Empathie
Um optimal mit Menschen interagieren zu können, werden kognitive Systeme in Zukunft immer besser in der Lage sein, auch auf das emotionale Befinden des Gegenübers reagieren zu können. Der Teilbereich des Affective Computings beschäftigt sich mit der Simulation von Empathie. Hierzu können beispielsweise die Gesichtsmimik, aber auch die Wortwahl und Stimmfärbung des menschlichen Gegenübers analysiert werden. Empathische Systeme werden beispielsweise in Pflege- oder pädagogischen Einrichtungen eingesetzt.

Geschäftsmodelle im Fokus

Chatbots für den Support
Auf Cognitive Computing beruhende Chatbots sind in der Lage, einen menschlichen Gesprächspartner zu simulieren. Die virtuellen Assistenten können einfache Kundenanfragen beantworten, Informationen zum Angebot des Unternehmens liefern oder sogar Bestellungen entgegennehmen. Dabei lassen sich die Chatbots nicht nur auf der eigenen Homepage oder in der eigenen App betreiben, sondern auch in Messenger-Dienste wie WhatsApp oder soziale Netzwerke einbinden. Durch Chatbots kann die Kundenbindung verbessert werden, da diese beispielsweise im Support unmittelbar Fragen beantworten können. Ein Geschäftsmodell könnte in Zukunft darin bestehen, Kunden solche Chat­bots als Service zur Verfügung zu stellen. Eine Abrechnung könnte dabei nach tatsächlich erfolgten Anfragen erstellt werden.

Kognitive Beratung
Sogenannte Robo-Advisors sind schon seit einigen Jahren ein disruptives Geschäftsmodell in der Finanzbranche. In der Regel wird dabei ein Portfolio für den Kunden erstellt und in gewissen Intervallen ein automatisches Rebalancing durchgeführt. Bisher funktioniert das Rebalancing auf einem einfachen statischen Algorithmus, aber in Zukunft könnten dabei selbstlernende Systeme zum Einsatz kommen. Kognitive Systeme könnten dabei nicht nur den Algorithmus stetig verbessern, sondern zudem noch richtige Beratungsgespräche führen. Das Führen von Beratungsgesprächen lässt sich auch auf andere Dienstleistungen übertragen, sodass wir in Zukunft nicht nur das Geschäftsfeld des Kognitiven Finanzberaters haben dürften, sondern auch des Kognitiven Versicherungs-, Steuer- oder Rechtsberaters, selbst ein Kognitiver Universalberater könnte entstehen.

„Machine Learning as a Service“ (MLaaS)
Die großen Cloud-Anbieter bieten mittlerweile bereits MLaaS-Dienste an, ohne dass man sich selbst Kenntnisse von komplexen Machine-Learning-Algorithmen aneignen muss. Über eine einfache Oberfläche unterstützen die Anbieter einen bei der Erstellung eines zugeschnittenen Algorithmus. Dieser lässt sich dann durch einfache APIs mit den eigenen Anwendungen verbinden. Auf diese Weise lassen sich dann Milliarden von Prognosen nach einem skalierbaren Bedarf erstellen. Zusätzlich gibt es sogar die Möglichkeit einer automatischen Skalierung, die ebenfalls auf selbstlernenden Systemen aufbaut und wobei stetig der Bedarf des Kunden prognostiziert wird.

Taxi 2.0
Durch die Möglichkeiten der künstlichen Intelligenz werden Fahrzeuge in die Lage versetzt, völlig autonom zu fahren. Das autonom fahrende Auto, welches den Nutzer zu seinem Ziel chauffiert, steht kurz vor der Realisation, wodurch auch das Geschäftsmodell des völlig autonomen Taxibetriebs entstehen dürfte. Bezahlt werden könnte, wie dies bei Car-Sharing-Anbietern bereits jetzt schon der Fall ist, über ein Abomodell. Vielfahrer zahlen dabei eine höhere Grundgebühr, aber weniger Kilometergeld. Die Flotte des Anbieters nutzt dabei neben anderen verkehrsrelevanten Daten auch die eigenen Bewegungsprofile, um mittels selbstlernender Systeme die stets optimale Route hinsichtlich Geschwindigkeit oder Treibstoffverbrauch und Verschleiß zu ermitteln. Zusätzlich lassen sich die autonomen Autos auch als Kurierdienst nutzen, ohne dass ein menschlicher Kurier notwendig ist.

Content-Generatoren
Auf News-Portalen können kognitive Systeme dazu genutzt werden, Content zu generieren. Dazu können verschiedene Quellen in Bezug auf ihren Informationsgehalt untersucht und ein eigener Text erstellt werden. Auch Prognosen können die Systeme liefern und dafür bspw. auch Daten aus sozialen Netzwerken verwenden. Sportergebnisse, Wahlausgänge oder Aktienkurse könnten so kontinuierlich vorhergesagt und dem Leser in einfacher Textform angeboten werden. Selbst müsste man den Content der Seiten nicht mehr verwalten, sogar auf Kommentare könnten Chatbots reagieren. Geld erwirtschaftet man wie üblich durch Ads oder Premiuminhalte für Abo-Kunden. //

 

Autorenvita Andreas Fuhrich

 

(1) „Künstliche Intelligenz und echte Profite – Machine Learning auf dem Weg in den Mainstream“, von: Carlo Velten, 2016,
URL: https://www.crisp-research.com/kunstliche-intelligenzund-echte-profite-machine-learning-auf-dem-weg-den-mainstream/ (Abgerufen: 24.November 2016).
Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen:
https://creativecommons.org/licenses/by-sa/3.0/de/

Internet of Things

Smart Things kommunizieren über das Internet der Dinge miteinander, wodurch neue Möglichkeiten automatischer Prozesse entstehen.

von Andreas Fuhrich

Statt selbst Gegenstand der menschlichen Aufmerksamkeit zu sein, soll das „Internet der Dinge“ den Menschen bei seinen Tätigkeiten unmerklich unterstützen. Dabei bezeichnet das Internet of Things (IoT) die Verknüpfung eindeutig identifizierbarer physischer Objekte mit einer virtuellen Repräsentation in einer internetähnlichen Struktur.

Die automatische Identifikation mittels RFID wird oft als Grundlage für das Internet der Dinge angesehen. Allerdings kann eine eindeutige Identifikation von Objekten auch mittels anderer Identifikationsverfahren, wie Strichcode oder 2-D-Code, erfolgen. Bauteile wie Sensoren und Aktoren erweitern die Funktionalität um die Erfassung von Zuständen bzw. die Ausführung von Aktionen.

Ziel des IoT ist die automatische Übertragung von Zustandsdaten realer Dinge in die virtuelle Welt, um dort weiterverarbeitet werden zu können. Solche Daten können beispielsweise Informationen über die aktuelle Nutzung, den Verbrauch, aber auch über besondere Umweltbedingungen am Ort des „Things“ sein. In einem IoT-Netzwerk kommunizieren auf diese Weise mehrere Dinge miteinander und sind in der Lage, sich gegenseitig Aufgaben zuzuweisen.

Wearables sind ein typisches Einsatzgebiet des IoT. Eine Smartwatch kann beispielsweise ihren Träger genau lokalisieren und diese Daten an die Heizung im Smart Home übermitteln. So kann sich diese automatisch ausschalten, falls das Haus verlassen wird, und sich einschalten, wenn man sich nähert.

In der Wirtschaft spielt das IoT vor allem im Zusammenhang mit der Industrie 4.0 eine wichtige Rolle. Dabei soll, nach Plänen der Bundesregierung, eine weitestgehend selbst­organisierte Produktion möglich werden: Menschen, Maschinen, Anlagen und Produkte kommunizieren und kooperieren direkt miteinander. Durch die Vernetzung soll es möglich werden, nicht mehr nur einen Produktionsschritt, sondern eine ganze Wertschöpfungskette zu optimieren. Das Netz soll zudem alle Phasen des Lebenszyklus des Produktes einschließen – von der Idee eines Produkts über die Entwicklung, Fertigung, Nutzung und Wartung bis hin zum Recycling.

Durch die Aktionen, die auf Basis der Daten des eigenständigen Informationsaustauschs zwischen Produktionsmaschinen, Lagersystemen und Betriebsmitteln entstehen, ergeben sich diverse Vorteile: Produkte können effizienter hergestellt und die Produktqualität kann verbessert werden. Der Energieverbrauch kann optimiert werden, da die einzelnen Teilnehmer eines IoT-Netzwerks nur dann aktiv sind, wenn sie wirklich benötigt werden. Durch die Nutzung moderner Technologien wird der Arbeitsplatz auch für die Mitarbeiter attraktiver. Zudem können Produkte kundenindividueller hergestellt werden, wodurch die Kundenbindung verbessert wird.

Von entscheidender Bedeutung beim IoT ist das Thema Sicherheit. Schließlich können Hacker nicht nur Daten stehlen oder verändern, sondern auch die Steuerung der Dinge übernehmen. Das Gefahrenpotenzial etwa im E-Health-Bereich oder bei Steuerungssystemen eines Kraftwerks ist daher außerordentlich.

Verschlüsselung ist nicht alles

Verbraucherdaten sind zu schützen – Datensicherung und Anonymisierung im Handel

von Dr. Christoph Hönscheid

Aufgrund der EU-Datenschutzgrundverordnung (DSGVO) muss auch der Handel wirksame Maßnahmen zum Schutz von Informationen ergreifen. Gerade in dieser Branche werden Daten häufig in Bereichen verarbeitet, über die das Unternehmen keine Kontrolle hat, so zum Beispiel bei den großen Cloud-Anbietern in den USA. Anonymisierungs-Gateways als „Single Point of Control“ können kritische Daten auf ihrem Weg dorthin „entschärfen“, ohne die Funktionen betroffener Applikationen zu beeinträchtigen.

Der Handel gehört seit Jahren zu den bevorzugten Zielen von Cyberkriminellen: Hier können sie, sofern sie mit ihrem Treiben erfolgreich sind, an große Mengen von Kundendaten kommen, und hier fällt ihnen der Erfolg oft genug recht leicht, weil die Unternehmen ihre Daten weniger gut schützen als beispielsweise in der Industrie, im Finanzsektor oder im Bereich Forschung und Entwicklung. Dabei sind Daten im Handel und besonders im Einzelhandel in hohem Maße „kritisch“ – Verbraucherdaten, vielleicht sogar mit Informationen über Kreditkarten oder Bankverbindungen lassen sich schneller und unkomplizierter monetarisieren als Daten, die in anderen Bereichen abgegriffen wurden.

Mit der EU-Datenschutzgrundverordnung (DSGVO), die ab Mai endgültig in Kraft tritt, ändern sich jedoch auch für den Handel die Rahmenbedingungen der Datensicherheit. Wenn Unternehmen massive Strafzahlungen vermeiden wollen, müssen sie beizeiten wirksame Maßnahmen ergreifen, um für alle Geschäftsanwendungen einen höchstmöglichen Schutz der personenbezogenen Informationen sicherzustellen. Die DSGVO fordert den Schutz personenbezogener Daten über deren gesamten Lebenszyklus hinweg – Unternehmen müssen also jederzeit die volle Kontrolle über diese Daten behalten, von der Erfassung bis zur Archivierung. Das gilt für selbstentwickelte Anwendungen ebenso wie für Standard-Software und natürlich auch für Cloud-Services – es sind also beispielsweise sowohl die Anwender von SAP als auch von Salesforce betroffen.

Auch im Handel lagern ja immer mehr Unternehmen Geschäftsprozesse in die Cloud aus, da Cloud-Services hinsichtlich Flexibilität, Skalierbarkeit und Kosten unübersehbare Vorteile bieten. Die Sicherung von Ge-schäftsdaten – und damit auch Kundendaten – ist aber in Cloud-Anwendungen immer eine besondere Herausforderung. So hat das jewei-lige Unternehmen dann nicht mehr die alleinige und vollständige Kontrolle darüber, wie mit den Daten verfahren wird. Insbesondere aber schreiben regulatorische Vorgaben gerne vor, dass Daten den betreffenden nationalen Geltungsbereich nicht verlassen dürfen. Wer also zum Beispiel die Kundendaten seiner chinesischen Niederlassung mit Salesforce verarbeiten möchte, das wiederum die Daten in einem japanischen Rechenzentrum speichert, hat ein Problem, das sich ohne Verschlüsse-lung oder Verschleierung der Daten nicht beheben lässt. Nur so ist sichergestellt, dass die Daten unkenntlich das Land verlassen und erst wieder lesbar werden, wenn sie zurückkommen.

Insbesondere regulatorische Vorgaben sehen oft vor, dass Daten den jeweiligen nationalen Geltungsbereich nicht verlassen dürfen.

Für die Sicherung sensibler Daten in der Cloud eignet sich besonders eine spezielle Cloud-Data-Protection-Lösung – ein Anonymisierungs-Gateway, das sämtliche sensiblen Informationen verschlüsselt oder verschleiert, bevor sie überhaupt erst an die Cloud-Anwendung übermittelt werden. Wichtig sind dabei die folgenden Anforderungen:

  • Das Gateway sollte so flexibel sein, dass es für eine Vielzahl von Cloud- oder Web-Anwendungen und Datenbanken angepasst werden kann;
  • die Lösung darf die Funktionalität der Anwendungen trotz Veränderung der Daten nicht einschränken; Funktionen wie Suchen, Sortieren und Reporting müssen weiterhin problemlos möglich sein.

Anonymisierungs-Gateways bieten für die Verschleierung der Daten einen „Single Point of Control“, der unabhängig von den Anwendungen und den zu schützenden Daten administriert wird. Die Cloud-Anwendung erhält zu keinem Zeitpunkt Zugriff auf Schlüssel oder Daten im Klartext, denn die Schlüssel verbleiben ausschließlich beim Gateway und damit beim Anwenderunternehmen. Sie werden dort von speziellen Sicherheitsadministratoren verwaltet, die zwar bestimmen, welche Nutzer die Informationen im Klartext lesen dürfen, die aber selbst keinen Zugriff auf Anwendung und Speicherort der Daten haben. Auf diese Weise lassen sich zum Beispiel für Handelsunternehmen komplette Supply-Chains in der Cloud abbilden, ohne dass dadurch die Daten gefährdet werden. Anonymisierungs-Gateways arbeiten mithilfe eines flexiblen Template-Konzepts, das die Möglichkeit zur selektiven Datenverdunklung bietet. Mit anpassbaren Templates können Unternehmen die wirklich kritischen Daten auswählen und diese gezielt so verbergen, dass sie von der Anwendung noch akzeptiert werden.

Grenzen der Verschlüsselung

Unbestritten ist Verschlüsselung für die Bewältigung dieser Aufgabe eine performante und sichere Methode, um die Daten zu schützen. Sie ist aber nicht in jedem Fall die ausreichende Antwort. Verschlüsselte Daten sind ja nicht mehr als kryptische Zeichenketten, die nicht mehr erkennen lassen, dass sie zuvor beispielsweise eine Postleitzahl waren. Genau dies erwarten Anwendungen allerdings und prüfen, ob in das Feld „PLZ“ wirklich eine fünfstellige Zahl eingegeben wird. Außerdem sollte für Auswertungen oder Reports eine Postleitzahl zwar nicht konkret identifizierbar, aber doch weiterhin als Postleitzahl einer Region erkennbar sein.

Diese Anforderungen löst die Technik des Data-Maskings beziehungsweise der Data-Obfuscation (Datenverdunklung): Hier werden die Daten nicht einfach verschlüsselt, sondern so verschleiert, dass ihre Struktur weiterhin erhalten bleibt; eine Postleitzahl sieht also nach wie vor wie eine Postleitzahl aus, lediglich ihr Inhalt wurde so verändert, dass keine Rückschlüsse mehr auf den betreffenden Datensatz möglich sind. Das Gateway löst die Verschleierung beim Abruf der Daten durch berechtigte Personen dann wieder auf. Die betreffenden Anwendungen und Datenbanken funktionieren weiterhin einwandfrei; zugleich ist den Vorschriften Genüge geleistet, denn es gingen keinerlei Klardaten nach draußen.

Handelsunternehmen erfüllen mit einem Anonymisierungs-Gateway gleich mehrere Anforderungen: Sie sichern die Kundendaten und damit ihr wertvollstes Kapital; sie erfüllen die gesetzlichen Vorgaben und vermeiden damit Strafen; sie halten ihre ERP- und CRM-Anwendungen auch in Infrastrukturen, die sie nicht kontrollieren können, trotzdem weiter voll funktionsfähig, sodass sie weiter wettbewerbsfähig agieren können. //

Autorenvita: Dr. Christoph Hönscheid

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen:

Handelskanal Social Media

Das ECC Köln hat Social-Media-Maßnahmen für kleinere Händler untersucht und herausgefunden, dass diese sehr gut funktionieren können.

von Bernhard Haselbauer

Aufgrund neuer Technologien und steigender Kundenanforderungen wird es für den Handel zunehmend schwieriger, neue Services zu schaffen, die den Konsumenten im Rahmen ihres Informations- und Einkaufsprozesses einen echten Mehrwert bieten. In diesem Kontext sind nachhaltige Strategien und Konzepte gefragt. Nach dem e-KIX vom November 2017 setzten gerade kleine und mittlere Onlinehändler im Marketingmix auf eine Präsenz und Werbung in sozialen Netzwerken. So zeigt der aktuelle e-KIX, für den das ECC Köln monatlich vorwiegend kleinere Onlinehändler zur Umsatzlage sowie zu wechselnden E-Commerce-Themen befragt: Social Media kommen bei mehr als jedem zweiten kleineren Onlinehändler zu Werbezwecken zum Einsatz. Damit werden die sozialen Netzwerke als Werbemaßnahme nur noch vom Suchmaschinenmarketing (68 %) übertroffen.
Bei den Befragten, die Werbeanzeigen in sozialen Netzwerken schalten, ist Facebook mit Abstand am beliebtesten: Mehr als neun von zehn dieser e-KIX-Teilnehmer platzieren dort kostenpflichtige Werbung. Auf Platz zwei und drei folgen das Bildportal Instagram (13 %) sowie YouTube (11 %).

Auf welchen Socia-Media-Kanälen haben Sie ein Unternehmensprofil?

Facebook auch für Unternehmensprofile am beliebtesten

Auch für Social-Media-Profile ist Facebook bei den Befragten Spitzenreiter, wie schon die e-KIX-Umfrage im vergangenen Jahr zeigte: Heute haben rund 85 Prozent der kleineren Onlinehändler ein Profil auf der Plattform. Instagram schafft es ebenfalls unter die Top 3: Rund ein Viertel der e-KIX-Teilnehmer ist hier präsent.
„Social Media werden auch für kleine und mittlere Onlinehändler wichtiger – schließlich sind die Nutzerzahlen von Facebook und Co. immens und es bietet sich die Chance, auch neue Kunden zu erreichen. Dabei sollte jedes Unternehmen aber genau prüfen, auf welcher Plattform die eigene Zielgruppe anzutreffen ist und welche sich gut eignet, um die eigenen Angebote zu präsentieren“, so Oliver Brimmers, Senior Projektmanager am ECC Köln.

Der E-Commerce-Konjunkturindex – kurz e-KIX – des ECC Köln ist ein Stimmungsbarometer im deutschen Onlinehandel. In den kurzen monatlichen Onlinebefragungen werden deutsche Onlinehändler gefragt: Wie sind die aktuellen Onlineumsätze? Welche Entwicklungen werden erwartet? In monatlich wechselnden Zusatzfragen werden zudem aktuelle Themen im E-Commerce beleuchtet. Die vollständigen Ergebnisse können unter www.e-kix.de heruntergeladen werden. Dort ist außerdem die Registrierung als e-KIX-Teilnehmer möglich.
Social Media können hervorragend für den Handel funktionieren, gerade für selbststän­dige, kleinere Händler. Nicht nur um zielgruppengerecht Kundenbindung aufzubauen und zu erhalten, auch um direkt zu verkaufen.

Welche der folgenden Online- und Offline-Werbemaßnahmen setzen Sie ein?

Social ECM

Immer häufiger findet Wissenstransfer über Unternehmensgrenzen hinweg statt: Wissens­transfer bedeutet dabei, dass Wissen in zwei Richtungen transferiert wird, nicht einfach von einer „wissenden“ zu einer „unwissenden“ Instanz. Auch die Art des Wissens hat sich verändert: Waren es früher in erster Linie Textdokumente, so sind es heute neben Textdokumenten auch Videos, Bilder, Eindrücke oder Erfahrungen.
Hierbei werden soziale Netzwerke immer wichtiger für die Unternehmen. Hier muss die strukturierte und digitalisierte Archivierung und Bearbeitung von Daten und Informationen aller Art über die Grenzen eines Unternehmens hinweg gewährleistet sein, was hohe Anforderungen etwa an Cloud-Betreiber stellt. Wichtige Elemente für Social ECM sind auch eine flexible Oberflächengestaltung, die Möglichkeit, Ansichten auf Daten zu teilen, zu „liken“ und zu kommentieren, und eine Crowdbewertung vorzunehmen. Allerdings sehen Experten wie Professor Ayelt Komus von der Hochschule Koblenz Social Media im Business-Kontext noch immer in den Anfängen.

Chatbots und „IT Robotic Process Automation“ (RPA)

Chatbots, sogenannte „virtuelle Assistenten“, werden eingesetzt, um eine kostengünstige, weil weitgehend automatisierte Kontaktmöglichkeit zwischen Unternehmen und Kunden zu schaffen. In der Vergangenheit wurde die Verwendung von Chatbots kritisiert – sie führten weder zu einer positiven „Customer-Experience“ noch verhinderten sie Rückfragen von Kunden. Außerdem müssten sie teuer manuell programmiert werden. (So gesehen schien das von Analysten erwartete Automatisierungspotenzial zwischen 25 und 70 Prozent allzu optimistisch.)
Das galt für die erste Generation der Chat­bots. Chatbots der nächsten Generation müssen nicht mehr manuell „gefüttert“ werden; sie beziehen ihr Wissen aus dem Expertenwissen des Unternehmens und lernen laufend hinzu. Der Einsatz dieser „intelligenten“ Chatbots wird voraussichtlich die Kosten in den Unternehmen massiv senken. //

 

 

 

Der Text ist unter der Lizenz CC BY-SA 3.0 DE verfügbar.
Lizenzbestimmungen:
https://creativecommons.org/licenses/by-sa/3.0/de/