Stellen Sie sich vor, Beiträge auf Linkedin kämen fast nur noch von Algorithmen. Ehrlich gesagt, wer wollte das lesen? Ryan Roslansky, Chef von Linkedin – und durch Microsoft quasi Quasi-Oberexperte für Trends im Netz – sieht jedenfalls eine Gefahr, wenn Mitglieder sich blind auf künstliche Intelligenz verlassen. Im Interview mit dem 'Handelsblatt' riet er, nicht einfach permanent KI-generierte Texte rauszuhauen: 'Wenn Sie sich darauf verlassen, dass immer nur eine Maschine für Sie spricht, werden Ihre Posts zum digitalen Restmüll – und erreichen nicht viele.'
Linkedin will das Problem mit sogenannten Freundlichkeitswarnungen angehen. Künftig springt ein Assistent ein, wenn Beiträge arg nach KI aussehen – offen gesagt, ein bisschen Big Brother-Feeling kommt auf. Angesichts des permanenten Wandels am Arbeitsplatz warnt Roslansky: Was bleibt, was uns unterscheidet? Kreativität, Kommunikationsfähigkeit und ja, diese menschliche Neugier, die sich so schwer outsourcen lässt. Er bringt es unmissverständlich auf den Punkt: 'KI kann Tabellen, klar. Aber Ihren eigenen Ton, echtes Interesse und Persönlichkeit? Die kann sie nicht.'
Witziger Gedanke am Rande: Wer ignoriert, dass seine Beiträge nach Automatenware klingen, den straft nicht sofort der Algorithmus – sondern schlicht die Kollegen. Weniger Likes, kaum Kommentare. Quasi eine stille Abstrafung durch die (virtuelle) Gemeinschaft. Persönliche Note schlägt also Rechnerleistung – zumindest bei LinkedIn.
Linkedin rät eindringlich davon ab, rein auf KI-Inhalte zu setzen und kündigt Warnhinweise für zu offensichtlich KI-generierte Beiträge an. Laut Roslansky bleibt Individualität der entscheidende Erfolgsfaktor in der Arbeitswelt, gerade weil KI vieles automatisiert. Neuere Entwicklungen zeigen, dass immer mehr Unternehmen Richtlinien gegen KI-Schrott festlegen; gleichzeitig diskutieren Experten, inwiefern ein Zuviel an Automatisierung die Glaubwürdigkeit in digitalen Communities untergräbt. Letzte Berichte auf Fachportalen weisen darauf hin, dass auch andere Plattformen – beispielsweise X (ehemals Twitter) und Facebook – verstärkt an Mechanismen gegen KI-Missbrauch arbeiten. Laut einer Untersuchung der Universität Bamberg sind Nutzer zunehmend sensibler gegenüber maschinell erzeugten Inhalten, was sich in sinkendem Engagement zeigt. In den letzten Tagen intensiviert sich die Debatte um digitale Authentizität, insbesondere im Kontext von Employer Branding und Karrierechancen.