OpenAI’in kurucu ortağı ve eski baş bilim insanı Ilya Sutskever, yapay zekanın güvenliğine odaklanan yeni bir girişim olan Safe Superintelligence Inc. (SSI)’yi kurduğunu duyurdu. SSI, “tek hedef ve tek ürün”e sahip bir startup olarak, güvenli ve güçlü bir yapay zeka sistemi geliştirmeyi amaçlıyor.
Şirketin kuruluşunun arkasındaki temel itici güç, Sutskever’in OpenAI’dan ayrılmasına yol açan güvenlik endişeleri. Sutskever, SSI’ın “güvenlik ve yeteneklere birlikte yaklaşan”, ticari baskılardan izole bir iş modeliyle bu endişeleri ele alacağını savunuyor.
SSI’ın kurucu ekibinde Sutskever’e, Apple’ın eski yapay zeka lideri Daniel Gross ve eski OpenAI mühendisi Daniel Levy eşlik ediyor. Ekip, yapay zekanın barışçıl bir şekilde ölçeklenmesini sağlayacak sağlam ve güvenli bir sistem geliştirmeye kararlı.
SSI, şu anda ilk ürünü olan güvenli bir süper zeka sistemi üzerinde çalışıyor ve yakın gelecekte başka ürünler geliştirmeyi planlamıyor.
OpenAI ile ortaklıklar kuran Apple ve Microsoft gibi teknoloji devlerinin aksine, SSI’ın yakın zamanda bu tür firmalarla iş birliği yapması beklenmiyor. Sutskever, SSI’ın tüm odağını yapay zekanın en güvenli ve en faydalı şekilde geliştirilmesine vermeyi planlıyor.
SSI’ın kuruluşu, yapay zekanın geleceği için önemli bir gelişme. Şirketin çalışmaları, bu güçlü teknolojinin hem insanlık için faydalı hem de güvenli bir şekilde geliştirilmesine katkıda bulunabilir.