Teilen

Künstliche Intelligenz: Startups sind zurück, aber mit zwei Governance-Ebenen. Ist es ein tragfähiges Modell?

Einige der wichtigsten KI-Start-ups haben im Wesentlichen eine Gemeinsamkeit, die sich in der Verflechtung von Non-Profit und For-Profit, zwischen Sozialität und Profitabilität sowie in der Balance beider Aspekte ausdrückt. OpenAI, Anthropic und Inflection AI haben alle eine hybride, duale Struktur

Künstliche Intelligenz: Startups sind zurück, aber mit zwei Governance-Ebenen. Ist es ein tragfähiges Modell?

Wie alle großen technologischen Innovationen des letzten halben Jahrhunderts ist die Revolution vonkünstliche Intelligenz allgemein begann von Anfang. Es waren einmal Apple, Microsoft, Google, Facebook. Heute bin ich OpenAi, Antrophic, Inflection und Mistral, in Europa, um nur einige der Tausenden zu nennen, die sich dieser neuen und erstaunlichen Technologie zugewandt haben.

Heideggers Aussage, dass die Folgen der Technik alles andere als technologisch seien, erscheint angesichts des Phänomens KI wahrer denn je. Letzterer hat wirklich die Fähigkeit, eine zu öffnen neu und auch verstörend Kapitel in der Geschichte unseres Planeten. Die Auswirkungen der KI auf die gesamte Gesellschaft erscheinen perspektivisch so enorm, dass uns nicht einmal die Science-Fiction-Literatur sagen kann, wo wir in nur einem halben Jahrhundert stehen werden.

Was wir wissen ist, dass es eine Zeit geben wird, in der wir von einer technologischen Singularität sprechen können, also von einem Wendepunkt, an dem dieReihe von Fähigkeiten, nicht nur Anwendungen, künstlicher Intelligenz überschreiten die Kapazität derkollektive biologische Intelligenz. Dieser Sachverhalt verleiht der KI eine besondere Konnotation, die auch den an vorderster Front stehenden Gruppen bewusst geworden ist. Und unter diesen Gruppen zeichnet sich eine klare ab Dualismus der Philosophien allgemein und operativ.

Optimisten und Pessimisten

Da sind zum einen die Ultras Optimisten (Boomer und auch Zoomer genannt), also diejenigen, die einen messianischen Glauben an die Fähigkeit der KI haben, dies zu tun Lebensbedingungen verbessern auf dem Planeten und deshalb sind sie paranoid in dem Wunsch, die Prozesse zu beschleunigen, die seine qualitative und quantitative Entwicklung bestimmen. Boomer vertreten die Vision eines „effektiven Akzelerationismus“, der besagt, dass die Entwicklung der KI beschleunigt werden muss.

Auf der anderen Seite gibt es die Ultras Pessimisten (Doomer genannt), die vor allem die Gefahr sehen, dass diese Technologie außer Kontrolle gerät und, wenn sie sich ungebremst entfalten darf, katastrophale Folgen hat, die die Menschheit vernichten könnten. Deshalb ist es notwendig, die KI aus den spontanen Mechanismen des Kapitalismus zu entfernen, indem ihre Entwicklung überwacht, begrenzt und gesteuert wird. Viele im „Doomer“-Lager werden vom „effektiven Altruismus“ beeinflusst, einer Bewegung, deren Prinzip der größtmögliche Nutzen der Initiativen des Einzelnen für die Gemeinschaft ist. Und sie sehen dieses Prinzip nicht in der Entfesselung künstlicher Intelligenz.

In der Mitte der beiden Pole befinden sich die Miglioristi die versuchen, zwischen den beiden Flügeln zu vermitteln und den Punkt des Gleichgewichts in der bewussten öffentlichen Kontrolle zu sehen. Was einen desorientierten Beobachter in diesem Chaos trösten kann, ist die Tatsache, dass es im Vergleich zur Geburt und Entwicklung des Internets ein größeres und größeres gibt breites Bewusstsein, zu dem auch die technologischen Avantgarden gehören, bei der Bewertung und Berücksichtigung der Folgen, die diese Entwicklungen für menschliche Gesellschaften und auch für die Natur haben können.

Sozialität und Rentabilität

Der Dualismus zwischen Zoomern und Doomern spiegelt sich auch in der Zusammensetzung von wider Unternehmensstrukturen von KI-Start-ups und im Governance-Modell, in dem beide Visionen ihren Platz zu finden scheinen.
Trotz der unterschiedlichen Deklinationen einige der großen Start-ups von KI haben im Wesentlichen ein gemeinsames Merkmal, das in der ausgedrückt wirdVerflechtung zwischen Non-Profit und For-Profit, zwischen Geselligkeit und Rentabilität und im Ausgleich der beiden Aspekte. Das gesellschaftliche Ziel besteht darin, eine allgemeine künstliche Intelligenz zu entwickeln, die die Eigenschaften der Nachhaltigkeit aufweist und sich der Kontrolle der Gemeinschaft nicht entzieht.

Mehr oder weniger haben Start-ups wie OpenAI, Antrophic und Inflection AI alle eines Hybridstruktur, in der Tat dual. Er investierte viel in die erste Microsoft, die zweite, gegründet von Flüchtlingen aus OpenAI, erhält Kapital von Google und Amazon, und der dritte, gegründet von zwei namhaften Technologen wie Reid Hoffman (Linkedin), Mustafa Suleyman (DeepMind), erhält die Unterstützung von Nvidia. Allerdings ist keines dieser Großunternehmen Anteilseigner der Start-ups und sitzt auch nicht mit einem eigenen stimmberechtigten Mitglied im Verwaltungsrat. Ihre Unternehmenssatzung lässt dies nicht zu. Mal sehen, wie.

Doppelte Regierungsführung

Das Unternehmen (d. h. das Eigentum), das die Tätigkeit des Start-ups kontrolliert, arbeitet nicht gewinnorientiert, und der Verwaltungsrat, der es leitet, ist kein Ausdruck der Aktionäre, sondern besteht aus den Direktoren, d. h. einem Gremium, das dies tut nicht auf der Grundlage wirtschaftlicher Ergebnisse rechenschaftspflichtig, sondern reagiert vielmehr auf die Tatsache, dass sich Anwendungen der künstlichen Intelligenz entwickelt haben sind nachhaltig e sie richten keinen Schaden an die Interessen der Gemeinschaft. Paradoxerweise reagiert dieses Leitungsorgan, wie „The Economist“ schreibt, auf dieder Aktionär „Menschheit“..

Es zeigt sich jedoch, dass die Entwicklung generativer KI-Anwendungen ein hohes Maß an Fachwissen erfordert Kapitalintensität. Daher müssen diese Start-ups, sobald die Beiträge der Gründer erschöpft sind, nach Risikokapital suchen, um die benötigten Ressourcen zu finden. Und sie müssen auch auf den Dienstleistungs- und Arbeitsmarkt zurückgreifen, um ihre Tätigkeit fortzusetzen. Sie brauchen also eine Geschäftsstruktur wie jedes andere Unternehmen.

Zu diesem Zweck haben sie daher eine gegründet kommerzieller Arm gewinnorientierter Typ, der mit der allgemeinen Governance-Struktur der gemeinnützigen Organisation verbunden ist und von dieser kontrolliert wird. Es ist die Tätigkeit einer solchen Tochtergesellschaft, die zu Gewinnen führt zurückzahlen Investoren in begrenztem Umfang. Das Maß der Rentabilitätsumverteilung darf das Hundertfache des Beitrags des Beitragszahlers nicht überschreiten. Alle Quoten, die diese Grenze überschreiten, werden an die Mutterorganisation, die gemeinnützige Organisation, weitergegeben, um für die Entwicklung von KI wiederverwendet zu werden.

Die Vorrangstellung der Non-Profit-Branche

In der Praxis behält sich der gemeinnützige Zweig das Recht vor, alle überschüssigen Gewinne bis dahin zu reinvestieren das Ziel erreicht künstliche allgemeine Intelligenz (AGI) zu schaffen. Und es wird der Vorstand sein, der darüber entscheidet, wann dieses Ziel erreicht ist. Und sobald sie erreicht sind, die daraus resultierenden Aktivitäten liefert nicht sind dazu bestimmt, eine zu erzeugen finanzielle Rendite für die Mitwirkenden der AGI-Bauphase.

Auch der Rat selbst ist dazu befugt Mitglieder hinzufügen oder entfernen darin enthalten, sobald die Zustimmung der Mehrheit der Direktoren vorliegt. In der Praxis reagiert dieser Organismus nur auf sich selbst. Diese Governance-Struktur soll sicherstellen, dass das Start-up dies kann dem äußeren Druck von Investoren widerstehen, die möglicherweise kurz- und mittelfristigen Gewinn der Entwicklung einer sicheren AGI für die Zukunft der Menschheit vorziehen.

Ist dieses Modell realisierbar?

Während einer Veranstaltung am 10. November 2023 in Paris fragte Brad Smith, Präsident von Microsoft, die Anwesenden: „Was gibt Ihnen das größte Selbstvertrauen?“ Die Technologie von einer gemeinnützigen Organisation oder einem gewinnorientierten Unternehmen beziehen, das sich vollständig im Besitz einer Einzelperson befindet?“

Offensichtliche Anspielung auf OpenAI, in die Microsoft unter den oben genannten Bedingungen investiert hat, und zu Meta von Mark Zuckerberg, der über eine eigene gültige KI-Lösung verfügt. Dies geschah vor dem 17. November, als der Vorstand von OpenAi aus unklaren Gründen ein Misstrauensvotum verabschiedete Salt Altman, wodurch er von seiner Rolle als CEO entbunden wird. Eine echte Bombe im Teich, die viele großgezogen hat Zweifel an der Praktikabilität des Dual-Level-Governance-Systems, was jedoch der Fall war gepflegt selbst nach Altmans Wiedereinstellung drei Tage später und der Ankunft eines neuen Vorstands, in dem nur ein Überlebender der vorherigen sechs Vorstandsmitglieder saß. Der „Economist“ kommentierte die Geschichte wie folgt: „Bei KI-Start-ups überall könnte es zu einem Wandel vom akademischen Idealismus hin zu größerem kommerziellen Pragmatismus kommen.“ Und für Technologienutzer könnte es glücklicherweise mehr Wettbewerb und mehr Auswahlmöglichkeiten geben.“

Wer soll die Arbeit machen?

Die zugrunde liegende Frage lautet: Wenn der Einsatz künstlicher Intelligenz so hoch und existenziell ist, wer sollte das tun? mach die Arbeit um zu verhindern, dass er wie der Cassandra Crossing-Zug entgleist? Der „Economist“ schreibt erneut: „Es ist nicht ganz klar, was eine Handvoll Privatpersonen [die Mitglieder des OpenAI-Vorstands, die Altman gefeuert haben] dazu qualifiziert, die Interessen der verbleibenden 7,9 Milliarden Bewohner der Erde zu vertreten …“

Sie müssen die sein Regierungen um diese Arbeit zu erledigen, schlussfolgert das Londoner Magazin. Rechts! Viele Menschen sind jedoch der Meinung, dass gerade aufgrund der Natur der künstlichen Intelligenz auch etwas Innovatives in der Governance- und Kontrollstruktur dieser für die Gemeinschaft und die Aktionäre so wichtigen Unternehmen vorhanden sein muss. Es wird noch viele weitere Folgen dieser Game of Thrones-würdigen Saga geben.

Quellen:
Die große Kluft der KI gleicht einer religiösen Spaltung, sagt Henry Farrell, „The Economist“, 12. Dezember 2023
Tripp Mickle, Cade Metz, Mike Isaac und Karen Weise, Inside OpenAI's Crisis Over the Future of Artificial Intelligence, „The New York Times“, 9. Dezember 2023
Cade Metz, Karen Weise, Nico Grant und Mike Isaac, Ego, Fear and Money: How the A.I. Fuse Was Lit, „The New York Times“, 3. Dezember 2023
Mit Sam Altmans Rückkehr ein Wandel in der KI vom Idealismus zum Pragmatismus, „The Economist“, 23. November 2023
In der seltsamen Governance-Struktur von OpenAI, „The Economist“, 21. November 2023
Die vielen Widersprüche von Sam Altman, „The Economist“, 22. November 2023
Die Folgen der Verrücktheit bei OpenAI, „The Economist“, 22. November 2023

Bewertung