Vor dem Gipfel vor zwei Wochen beim Weißen Haus, dann ist dieAnhörung im US-Senat. Sam Altman, CEO von OpenAI und Vater von ChatGPT, ist auf einer Tour zu den führenden amerikanischen Politikern. Und nur er verbirgt das nicht Gefahren einer künstlichen Intelligenz sich selbst überlassen, frei zu tun und rückgängig zu machen. Nicht nur Gefahren für die Beschäftigung, sondern eines der Themen, das die Politik angesichts des ungebremsten Vormarsches der künstlichen Intelligenz und ihrer Anwendungen in der Arbeitswelt und Unternehmensorganisation am meisten beschäftigt. Gefahren, und zwar große, sieht Sam Altman für den richtigen Umgang damit DemokratieDes Wahlenvon soziale Konflikte die durch als wahr ausgegebene falsche Kommunikation beeinflusst oder sogar verzerrt werden können. «Wenn diese Technologie (künstliche Intelligenz, ed„Wenn etwas schief geht, könnte es sehr schlimm enden: Wir müssen es laut sagen und mit der Regierung zusammenarbeiten, um zu verhindern, dass das passiert“, sagte er vor den Senatoren in Washington ganz deutlich. Deshalb forderte er die Mitglieder des US-Senats auf, neue Regeln zu erlassen und diese anzuvertrauen eine neue Regierungsbehörde die Aufgabe, Lizenzen für die Entwicklung großer Modelle der künstlichen Intelligenz zu vergeben, wie z ChatGPT o Google-Barde, mit der Befugnis, sie zu widerrufen, wenn diese Modelle nicht den von der politischen Macht festgelegten Standards entsprechen. Eine sehr wichtige und bedeutsame Anhörung, die uns verständlich macht, wie komplex die Auswirkungen der neuen Technologie auf unser Leben sind, und die nach den Appellen der Ökonomen Friedman und Harari und nach dem Aufschrei erfolgt Geoffrey Everest Hinton tritt zurück, der Pate der künstlichen Intelligenz bei Google, der Big G gerade verlassen hat, um frei über die mit KI verbundenen Risiken sprechen zu können.
Lesen Sie auch: Die Rache von Big Tech an den Banken heißt KI. Ist es eine Gefahr oder nicht? Deshalb kann es die Märkte durcheinander bringen
Was Sam Altman im US-Senat sagte
Der CEO von OpenAi ging in seiner Rede über künstliche Intelligenz im US-Senat sogar noch weiter und vermutete die Entstehung einer internationalen Agentur, die die Regeln überwacht und sich um deren Überwachung kümmert, nach dem Vorbild dessen, was für die Kernenergie getan wird, wo dieInternationale Atomenergiebehörde (IAEA) ist der Bezugspunkt für alle Betreiber auf globaler Ebene. Zweite Sam Altman Es geht darum, Sicherheitsstandards für diese Modelle der künstlichen Intelligenz zu identifizieren und ihre Fähigkeit zu bewerten, sich selbst zu reproduzieren oder sich der Kontrolle des Managers zu entziehen, indem sie autonom handeln oder der Manipulation von außen ausgesetzt bleiben. Dazu gehört auch die Einführung eines Leistungsüberprüfungssystems, das unabhängigen Experten anvertraut wird. Mit anderen Worten: Altman listete die entscheidenden Punkte eines Regulierungsplans auf, der die Spielregeln in einem schnell wachsenden Sektor festlegen kann, und zwar so schnell, dass es nicht nur die Mitglieder des amerikanischen Parlaments, sondern auch die Protagonisten neuer Technologien selbst beunruhigt.
Altman hingegen sagte, er sei davon überzeugt, dass die neuen Technologien der künstlichen Intelligenz der Menschheit Vorteile bieten würden, die weit über die Risiken und einige negative Auswirkungen wie den Verlust automatisierter Arbeitsplätze hinausgingen, die Gefahren habe er jedoch nicht unterschätzt. „Es ist wichtig, dass künstliche Intelligenz mit demokratischen Werten entwickelt wird. „Meine größte Angst ist, dass der KI-Bereich der Welt wirklich schaden könnte“, waren seine alarmierenden Worte.