OpenAI CEO'su Sam Altman, yapay zekanın çalışanların yerini alma, "dezenformasyon" yayma ve siber saldırılara olanak sağlama potansiyeline sahip olduğu konusunda uyardı.
Altman, şirketinin GPT-4 adlı en son dil modelini açıklamasından iki gün sonra ABC News'e konuştu.
"SİBER SALDIRILARDA KULLANILABİLİR"
"Yapay Zeka konusunda dikkatli olmalıyız. Chat CPT-4 çeşitli profesyonel ve akademik ölçütlerde insan düzeyinde performans sergiliyor. Bu modellerin özellikle büyük ölçekli dezenformasyon için kullanılabileceğinden endişeliyim. Artık bilgisayar kodu yazmakta daha iyi hale geldiklerine göre, saldırgan siber saldırılar için kullanılabilirler" dedi.
Altman, şirketinin yapay zeka konusunda "güvenlik sınırları" koymak için çalıştığını söyledi ve "Bence insanlar bundan biraz korktuğumuz için mutlu olmalı" dedi.
Şu anda, GPT-4 sınırlı sayıda kullanıcıya deneme amaçlı olarak sunuluyor.
İlk raporlar, modelin selefinden önemli ölçüde daha güçlü ve potansiyel olarak daha tehlikeli olduğunu gösteriyor.