Newsroom:
Woran wir
gerade arbeiten
Newsroom
Loading...
28. November 2023
Pegasystems: Geplante EU-Regeln für KI – Was Unternehmen schon heute tun können
Mit ihrem KI-Gesetz will die Europäische Union sicherstellen, dass in der EU eingesetzte KI-Systeme sicher, fair, transparent und nachvollziehbar arbeiten. Doch was bedeutet das für Unternehmen konkret, und wie können sie sich auf die neuen Spielregeln vorbereiten?
16. November 2023
Open Systems sichert Web-Traffic mit neuem SWG-Service
Open Systems, Anbieter einer führenden Secure-Access-Experience-Lösung, hat die Verfügbarkeit seines Secure Web Gateway (SWG) as a Service angekündigt. Die Cloud-basierte und umfassende Web-Sicherheitslösung kombiniert effektiven Schutz vor Bedrohung mit sicheren Zugangskontrollen und intelligenten Web-Filtern, um Unternehmen sicheres sowie produktives Browsen im Internet zu ermöglichen.
14. November 2023
Pegasystems: Process Mining und Low-Code gehören zusammen
Process Mining gilt als essentielle Technik bei der Transformation hin zum datengetriebenen Unternehmen. Pegasystems erklärt, warum dabei eine Low-Code-Plattform als multifunktionales Werkzeug unverzichtbar ist.
7. November 2023
Diese ChatGPT-Aktionen sollte man sich am Arbeitsplatz besser verkneifen
ChatGPT und Co. sind tolle Helferlein am Arbeitsplatz – und ein potenzielles Sicherheitsrisiko. Der IT-Security-Spezialist Forcepoint erklärt, welche Aufgaben man besser immer noch selbst erledigt.
2. November 2023
Pegasystems: Generative KI wird zur Fitness-Kur für Banken
ChatGPT ist nur eines von vielen Beispielen für Generative KI – wenn auch das weitaus bekannteste. Die möglichen Anwendungsszenarien dafür sind praktisch unbegrenzt, der Fantasie keine Grenzen gesetzt. Banken und Finanzdienstleistern eröffnet sich damit die Chance, einen Teil ihrer strukturellen Defizite aufzuarbeiten und zu lösen.
24. Oktober 2023
Pegasystems: Eine gruselige Technologie – KI und Halloween haben viel gemeinsam
Halloween steht vor der Tür – am 31. Oktober erwacht das Grauen zum Leben. Weniger Spuk und Grusel würde man sich bei so manchen Ergebnissen von ChatGPT wünschen. Solche Large Language Models (LLM) liefern zwar durchaus beeindruckende Ergebnisse, sind aber oftmals nicht in der Lage, logische und vor allem wahrheitsgemäße Schlussfolgerungen zu ziehen. Statt intelligent zu antworten, reihen sie schlicht Wörter aneinander. Dadurch liefern sie teilweise zombiemäßige, falsche Informationen. Doch wie lässt sich das verhindern?