Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnWeb3PlazaMehr
Traden
Spot
Krypto kaufen und verkaufen
Margin
Kapital verstärken und Fondseffizienz maximieren
Onchain
Going Onchain, without going Onchain!
Umtauschen
Keine Transaktionsgebühren, keine Slippage und unterstützt die meisten wichtigen Coins.
Erkunden
Launchhub
Verschaffen Sie sich frühzeitig einen Vorteil und beginnen Sie zu gewinnen
Copy
Elite-Trader mit einem Klick kopieren
Bots
Einfacher, schneller und zuverlässiger KI-Trading-Bot
Traden
USDT-M Futures
Futures abgewickelt in USDT
USDC-M-Futures
Futures abgewickelt in USDC
Coin-M Futures
Futures abgewickelt in Kryptos
Erkunden
Futures-Leitfaden
Eine Reise ins Futures-Trading vom Anfänger bis Fortgeschrittenen
Futures-Aktionen
Großzügige Prämien erwarten Sie
Übersicht
Eine Vielzahl von Produkten zur Vermehrung Ihrer Assets
Simple Earn
Jederzeit ein- und auszahlen, um flexible Renditen ohne Risiko zu erzielen.
On-Chain Earn
Erzielen Sie täglich Gewinne, ohne Ihr Kapital zu riskieren
Strukturiert verdienen
Robuste Finanzinnovationen zur Bewältigung von Marktschwankungen
VIP & Wealth Management
Premium-Services für intelligente Vermögensverwaltung
Kredite
Flexible Kreditaufnahme mit hoher Vermögenssicherheit
Eine neue Grenze der KI-Sicherheit: Laborübergreifende Tests zur Vereinigung der Branche

Eine neue Grenze der KI-Sicherheit: Laborübergreifende Tests zur Vereinigung der Branche

ainvest2025/08/27 19:56
Original anzeigen
Von:Coin World

- Ilya Sutskever von OpenAI befürwortet laborübergreifende Tests, um die KI-Sicherheit angesichts rascher technologischer Fortschritte und branchenweiter Risiken zu stärken. - Die browserbasierte Claude-Testphase von Anthropic hebt Sicherheitsherausforderungen wie Prompt-Injection-Angriffe hervor und führt zu verbesserten Abwehrstrategien. - Eine Studie zeigt eine mangelhafte Einhaltung freiwilliger Sicherheitszusagen durch große KI-Unternehmen, darunter Apple, und stellt die Wirksamkeit der Selbstregulierung in Frage. - Die AI Safety Initiative der Cloud Security Alliance bietet Rahmenwerke und RiskRub.

OpenAI-Mitbegründer und Vorstandsmitglied Ilya Sutskever hat die Einführung von Labor-übergreifenden Tests als entscheidende Maßnahme zur Gewährleistung der Sicherheit von Künstlicher Intelligenz (KI)-Systemen gefordert. Seine Aussage erfolgt vor dem Hintergrund wachsender Bedenken hinsichtlich der mit dem Fortschritt der KI verbundenen Risiken, wobei Branchenführer die Notwendigkeit gemeinsamer, standardisierter Sicherheitsprotokolle betonen. Sutskevers Forderung nach Labor-übergreifenden Tests steht im Einklang mit umfassenderen Bemühungen, die KI-Sicherheit zu stärken und potenzielle Schäden zu mindern, während sich die Technologie weiterhin rasant entwickelt [1].

Die Notwendigkeit solcher gemeinschaftlichen Ansätze wird durch jüngste Entwicklungen im Bereich der KI-Einführung und -Regulierung unterstrichen. So hat Anthropic, ein bedeutender Akteur im KI-Sektor, ein Pilotprogramm für seinen KI-Assistenten Claude eingeführt, der direkt im Browser der Nutzer arbeitet. Diese Initiative, die darauf abzielt, den Nutzen von KI durch Integration in zentrale digitale Arbeitsabläufe zu erhöhen, hat auch die erheblichen Sicherheits- und Schutzherausforderungen hervorgehoben, die mit browserbasierten KI-Agenten verbunden sind. Prompt Injection-Angriffe – bei denen böswillige Akteure das Verhalten der KI durch versteckte Anweisungen manipulieren – sind als zentrales Risiko aufgetreten, was Anthropic dazu veranlasst hat, robuste Gegenmaßnahmen wie Berechtigungen auf Seitenebene, Aktionsbestätigungen und fortschrittliche Klassifizierer zur Erkennung verdächtiger Muster zu implementieren [2].

Solche Risiken beschränken sich nicht auf einzelne Unternehmen. Eine aktuelle Studie von Forschern der Brown, Harvard und Stanford University ergab, dass viele KI-Unternehmen ihre freiwilligen Sicherheitsverpflichtungen, insbesondere nach den KI-Sicherheitszusagen der Biden-Regierung im Jahr 2023, nicht vollständig eingehalten haben. Apple schnitt beispielsweise in der Bewertung schlecht ab, mit Nachweisen für die Einhaltung nur einer von acht Verpflichtungen. Die Studie hebt die Grenzen der Selbstregulierung in einer sich schnell entwickelnden Branche hervor und wirft Fragen zur Wirksamkeit freiwilliger Maßnahmen bei der Gewährleistung von Verantwortlichkeit und Sicherheit auf [5].

Als Reaktion auf diese Herausforderungen startete die Cloud Security Alliance (CSA) Ende 2023 ihre AI Safety Initiative, die Branchenführer, Regierungsbehörden und akademische Institutionen zusammenbringt, um praktische Werkzeuge und Rahmenwerke für das KI-Risikomanagement zu entwickeln. Die Initiative stellt Organisationen KI-Bereitschafts-Checklisten, Governance-Rahmenwerke und Sicherheitsrichtlinien zur Verfügung, mit dem Ziel, den technologischen Fortschritt mit regulatorischen Erwartungen in Einklang zu bringen. Bemerkenswert ist, dass die CSA auch RiskRubric.ai eingeführt hat, ein Bewertungssystem, das die Sicherheit, Transparenz und Zuverlässigkeit von Large Language Models (LLMs) bewertet und Unternehmen einen datenbasierten Ansatz für die Einführung von KI bietet [4].

Gemeinschaftliche Bemühungen zur Verbesserung der KI-Sicherheit werden auch durch ein wachsendes Ökosystem von Geldgebern und Förderprogrammen unterstützt. Organisationen wie der Long-Term Future Fund, der Survival and Flourishing Fund und der AI Safety Fund bieten finanzielle Unterstützung für Forscher, Unternehmer und Institutionen, die an der Minderung von KI-Risiken arbeiten. Diese Initiativen zielen darauf ab, langfristige existentielle Risiken anzugehen und gleichzeitig verantwortungsvolle Innovation zu fördern. Darüber hinaus investieren Risikokapitalfirmen wie Juniper Ventures und Mythos Ventures in Startups, die Werkzeuge zur Verbesserung von KI-Sicherheit, Compliance und Governance entwickeln [6].

Der von Sutskever geforderte Labor-übergreifende Test stellt einen entscheidenden Schritt zur Bewältigung dieser systemischen Herausforderungen dar. Durch die Ermöglichung gemeinsamer Standards und transparenter Bewertungen über KI-Entwicklungslabore hinweg kann die Branche mehr Vertrauen und Verantwortlichkeit schaffen. Dieser Ansatz ist besonders wichtig, da KI-Systeme immer komplexer und leistungsfähiger werden und eine einheitliche Vorgehensweise zur Bewertung potenzieller Risiken vor der Einführung erforderlich ist. OpenAI, Anthropic und andere wichtige Akteure haben die Möglichkeit – und die Verantwortung –, diesen Wandel anzuführen, indem sie gemeinschaftliche Sicherheitsprotokolle übernehmen und einen Präzedenzfall für verantwortungsvolle KI-Innovation schaffen [1].

Eine neue Grenze der KI-Sicherheit: Laborübergreifende Tests zur Vereinigung der Branche image 0
0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!