OpenAI kurucu ortağı Ilya Sutskever, ileri düzey yapay zeka modelleri geliştirmeyi amaçlayan yeni girişimi SSI‘yi (Safe Superintelligence Inc.) bugün duyurdu. Sutskever, birkaç ay önce OpenAI‘daki baş bilim insanı görevinden ayrılmış ve OpenAI Yönetim Kurulu’ndan istifa etmişti. Bu ayrılığın, geçen Kasım ayında OpenAI CEO’su Sam Altman‘ın kısa süreli görevden alınmasıyla bağlantılı olduğu düşünülüyor.
SSI, Palo Alto ve Tel Aviv‘de ofisler kurarak faaliyetlerine başladı. Şirketin adından da anlaşılacağı üzere, öncelikli hedefi yapay zeka güvenliğini geliştirmek. Şirketin internet sitesindeki kısa duyuruda, “Güvenlik ve yetenekleri eşzamanlı olarak ele alıyoruz. Güvenliğimizin her zaman önde olmasını sağlarken yetenekleri mümkün olduğunca hızlı ilerletmeyi planlıyoruz.” ifadesine yer verildi.
Ilya Sutskever, 2015 yılında OpenAI‘yi kurmadan önce, Toronto Üniversitesi‘nde çığır açan bilgisayar görme modeli AlexNet‘in geliştirilmesine katkıda bulundu. AlexNet, grafik işlem birimlerinde çalışan yapay zeka modellerinin pratik görevler için kullanılabileceğini gösterdi ve derin öğrenme araştırmalarında önemli bir ilham kaynağı oldu.
Sutskever, OpenAI‘yi kurmadan önceki üç yılı Google LLC‘de geçirdi ve burada TensorFlow‘a önemli katkılarda bulundu. Ayrıca, Seq2seq adlı dil modeli serisi üzerinde çalıştı. Bu model serisi, daha sonra geliştirilen Transformer mimarisiyle bazı özellikleri paylaşmaktadır.
Sutskever, SSI‘yi eski OpenAI araştırmacısı Daniel Levy ve bir dönem Y Combinator partneri olan ve bir zamanlar Apple Inc.‘in yapay zeka çalışmalarını yöneten Daniel Gross ile birlikte kurdu. SSI‘nin internet sitesinde bugün yapılan duyuruda, üç kurucu, şirketin “ekibinin, yatırımcılarının ve iş modelinin SSI‘yi başarmak için uyumlu” olduğunu belirtti. Bu, şirketin girişim sermayesi fonu sağladığına dair bir ipucu olarak değerlendiriliyor.
Sutskever, Bloomberg‘e verdiği demeçte, SSI‘nin “güvenli süper zekayı geliştirme çabasından başka hiçbir şey yapmayacağını” belirtti. Bu, şirketin yakın gelecekte araştırmalarını ticarileştirme arayışında olmayacağına işaret ediyor.
Bugünkü duyuruda, SSI‘nin kurucuları, yapay zeka modellerinin güvenliğini sağlamak için hangi yaklaşımları benimseyeceklerini belirtmediler. Sutskever, OpenAI‘den ayrılmadan önce, ileri düzey sinir ağlarının oluşturabileceği riskleri azaltma yollarını araştıran Superalignment ekibini birlikte yönetmişti. Dağıtılmış olan bu grubun araştırmaları, SSI‘nin yapay zeka güvenliğini nasıl ele almayı planladığına dair bazı ipuçları sağlayabilir.
Geçen Kasım ayında yayınlanan bir makalede, Superalignment ekibi, “zayıftan güçlüye genelleme” olarak bilinen bir yapay zeka güvenlik yaklaşımını detaylandırdı. Bu yöntem, ileri düzey bir sinir ağının çıktısını, daha az gelişmiş bir sinir ağı kullanarak düzenlemeyi içeriyor. Proje kapsamında gerçekleştirilen bir testte, OpenAI‘nin erken dönem GPT-2 algoritmasının, daha yeni ve çok daha yetenekli GPT-4‘ü denetlemek için nasıl kullanılabileceği gösterildi.