AI güven katmanında yeni bir deneme: Mira ağı kamu Testnet'i başlatıldı
Son günlerde, Mira adında bir ağ genel testnet'i resmi olarak faaliyete geçti. Bu projenin amacı, AI için bir güven katmanı oluşturarak mevcut AI sistemlerinin karşılaştığı bazı kritik zorlukları çözmektir. Peki, AI neden güven inşa etmelidir ve Mira bu sorunu nasıl ele almaktadır?
AI alanında, insanlar genellikle onun güçlü yeteneklerine daha fazla odaklanıyorlar. Ancak, ilginç ama daha az tartışılan bir konu, AI'nın "halüsinasyonları" veya önyargılarıdır. AI'nın "halüsinasyonları" denilince, basitçe söylemek gerekirse, AI'nın bazen "uydurduğu" bilgilerle mantıklı gibi görünen saçmalıklar üretmesidir. Örneğin, AI'ya ayın neden pembe olduğunu sorarsanız, makul gibi görünen ama gerçekte hiçbir temeli olmayan bir dizi açıklama verebilir.
AI'nın "halüsinasyon" veya önyargı göstermesi, mevcut bazı AI teknolojisi yollarıyla ilişkilidir. Örneğin, üretken AI, çıktının tutarlılığı ve mantıklılığı için "en olası" içeriği tahmin ederek çalışır, ancak bu yöntem bazen gerçekliği doğrulamakta zorluk çıkarabilir. Ayrıca, eğitim verileri hatalar, önyargılar veya hatta kurgusal içerik içerebilir; bu da AI'nın çıktı kalitesini etkileyebilir. Başka bir deyişle, AI insanların dil kalıplarını öğrenir, gerçeği değil.
Mevcut olasılık üretim mekanizması ve veri odaklı model, AI'nın "halüsinasyonlar" üretmesini neredeyse kaçınılmaz kılmaktadır. Genel bilgi veya eğlence içeriği için, bu tür yanlı veya halüsinasyonlu çıktılar geçici olarak doğrudan sonuçlar doğurmayabilir. Ancak, tıpta, hukukta, havacılıkta, finans gibi yüksek derecede titizlik gerektiren alanlarda meydana gelirse, ciddi sonuçlar doğurabilir. Bu nedenle, AI'nın halüsinasyon ve yanlılık sorununu nasıl çözeceği, AI gelişim sürecinin en temel sorunlarından biri haline gelmiştir.
Şu anda, sektörde çeşitli çözüm önerileri bulunmaktadır. Bazıları, AI ile gerçek zamanlı veritabanını birleştirerek doğrulanmış gerçekleri öncelikli olarak sunmak için arama artırma üretim teknolojisi kullanmaktadır. Bazıları ise, modelin hatalarını düzeltmek için insan geri bildirimi, insan etiketleme ve denetim yoluyla devreye girmektedir.
Mira projesi, AI önyargı ve halüsinasyon problemlerini çözmeye de çalışıyor. Temel düşüncesi, AI'nin güven katmanını inşa ederek AI önyargı ve halüsinasyonunu azaltmak ve AI'nin güvenilirliğini artırmaktır. Peki, Mira bu hedefe nasıl ulaşmayı planlıyor?
Mira'nın temel düşüncesi, birden fazla AI modelinin uzlaşması yoluyla AI çıktılarının doğruluğunu doğrulamaktır. Mira, esasen bir doğrulama ağıdır ve AI çıktılarının güvenilirliğini doğrulamak için birden fazla AI modelinin uzlaşmasını kullanır. Ayrıca, Mira, doğrulama için merkeziyetsiz bir uzlaşma da getirir.
Mira ağının anahtarı, merkeziyetsiz konsensüs doğrulamasındadır. Bu yöntem, kripto alanındaki teknolojilerden yararlanırken, çoklu model iş birliğinin avantajlarını kullanarak, toplu doğrulama modeli aracılığıyla önyargı ve yanılsamaları azaltmaktadır.
Doğrulama mimarisi açısından, Mira protokolü karmaşık içeriği bağımsız olarak doğrulanabilir beyanlara dönüştürmeyi destekler. Bu beyanların doğrulanmasında düğüm işletmecilerinin katılımı gerekmektedir. Düğüm işletmecilerinin dürüstlüğünü sağlamak için, Mira kripto ekonomik teşvik/ceza mekanizmasını benimsemektedir. Farklı AI modelleri ve dağıtık düğüm işletmecileri birlikte çalışarak doğrulama sonuçlarının güvenilirliğini garanti eder.
Mira'nın ağ mimarisi, doğrulamanın güvenilirliğini sağlamak amacıyla içerik dönüşümü, dağıtılmış doğrulama ve konsensüs mekanizmasını içermektedir. Bu mimaride, içerik dönüşümü önemli bir aşamadır. Mira ağı, aday içeriği (genellikle müşteriler tarafından sağlanan) farklı doğrulanabilir beyanlara ayırarak, modelin aynı bağlamda içeriği anlamasını sağlar. Bu beyanlar, beyanın geçerliliğini belirlemek ve sonuçları toplamak için düğümlere doğrulama yapılması amacıyla sistem tarafından dağıtılır. Sonuçta, bu sonuçlar ve konsensüs müşteriye geri döner. Müşteri gizliliğini korumak için, aday içerik beyan çiftlerine dönüşümden geçirilip, rastgele parçalar halinde farklı düğümlere dağıtılır, böylece doğrulama sürecinde bilgi sızıntısı önlenir.
Düğüm operatörleri, doğrulayıcı modelini çalıştırmak, beyanları işlemek ve doğrulama sonuçlarını sunmaktan sorumludur. Doğrulamaya katılmayı istemelerinin nedeni, kazanç elde edebilmeleridir. Bu kazanç, müşteriler için yaratılan değerden gelmektedir. Mira ağı, AI'nın hata oranını azaltmayı (halüsinasyon ve önyargıları azaltmayı) hedeflemektedir; bu hedefe ulaşıldığında sağlık, hukuk, havacılık, finans gibi alanlarda büyük bir değer yaratılacaktır. Bu nedenle, müşteriler bunun için ödeme yapmaya isteklidir. Elbette, ödeme sürdürülebilirliği ve ölçeği, Mira ağının müşterilere sürekli değer sunup sunamayacağına bağlıdır. Düğümlerin rastgele yanıt verme spekülatif davranışlarını önlemek için, sürekli konsensüsten sapma gösteren düğümlerin stake edilmiş token'ları kesilecektir. Genel olarak, Mira, ekonomik mekanizmaların oyunları yoluyla düğüm operatörlerinin dürüst bir şekilde doğrulamaya katılmasını sağlamaktadır.
Mira, AI'nin güvenilirliğini sağlamak için yeni bir yaklaşım sunuyor: Birden fazla AI modelinin üzerine inşa edilen merkeziyetsiz bir konsensüs doğrulama ağı oluşturarak, müşterilerin AI hizmetlerine daha yüksek güvenilirlik kazandırıyor, AI önyargılarını ve halüsinasyonları azaltıyor, müşterilerin daha yüksek doğruluk ve hassasiyet taleplerini karşılıyor. Aynı zamanda, müşterilere değer sağlarken, Mira ağı katılımcılarına gelir getiriyor. Kısacası, Mira AI'nın güven katmanını inşa etmeye çalışıyor, bu da AI uygulamalarının derin gelişimini teşvik edecek.
Şu anda, kullanıcılar Klok aracılığıyla Mira kamu Testnet'ine katılabilirler. Klok, kullanıcıların doğrulanmış AI çıktısını deneyimleyebileceği ve bunu doğrulanmamış AI çıktılarıyla karşılaştırabileceği, Mira tabanlı bir LLM sohbet uygulamasıdır. Katılımcılar ayrıca Mira puanları kazanabilir, ancak bu puanların gelecekteki kullanımı henüz açıklanmamıştır.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 Likes
Reward
11
2
Share
Comment
0/400
SillyWhale
· 07-29 02:07
Biraz ilginç, önce bir bakalım.
View OriginalReply0
NftRegretMachine
· 07-28 12:19
Öne çıkan noktalar var ama yine de gözlemlemek gerekiyor.
Mira Ağı, önyargı ve yanılsamaları azaltmak için AI güven katmanı inşa etmek amacıyla kamu testine başladı.
AI güven katmanında yeni bir deneme: Mira ağı kamu Testnet'i başlatıldı
Son günlerde, Mira adında bir ağ genel testnet'i resmi olarak faaliyete geçti. Bu projenin amacı, AI için bir güven katmanı oluşturarak mevcut AI sistemlerinin karşılaştığı bazı kritik zorlukları çözmektir. Peki, AI neden güven inşa etmelidir ve Mira bu sorunu nasıl ele almaktadır?
AI alanında, insanlar genellikle onun güçlü yeteneklerine daha fazla odaklanıyorlar. Ancak, ilginç ama daha az tartışılan bir konu, AI'nın "halüsinasyonları" veya önyargılarıdır. AI'nın "halüsinasyonları" denilince, basitçe söylemek gerekirse, AI'nın bazen "uydurduğu" bilgilerle mantıklı gibi görünen saçmalıklar üretmesidir. Örneğin, AI'ya ayın neden pembe olduğunu sorarsanız, makul gibi görünen ama gerçekte hiçbir temeli olmayan bir dizi açıklama verebilir.
AI'nın "halüsinasyon" veya önyargı göstermesi, mevcut bazı AI teknolojisi yollarıyla ilişkilidir. Örneğin, üretken AI, çıktının tutarlılığı ve mantıklılığı için "en olası" içeriği tahmin ederek çalışır, ancak bu yöntem bazen gerçekliği doğrulamakta zorluk çıkarabilir. Ayrıca, eğitim verileri hatalar, önyargılar veya hatta kurgusal içerik içerebilir; bu da AI'nın çıktı kalitesini etkileyebilir. Başka bir deyişle, AI insanların dil kalıplarını öğrenir, gerçeği değil.
Mevcut olasılık üretim mekanizması ve veri odaklı model, AI'nın "halüsinasyonlar" üretmesini neredeyse kaçınılmaz kılmaktadır. Genel bilgi veya eğlence içeriği için, bu tür yanlı veya halüsinasyonlu çıktılar geçici olarak doğrudan sonuçlar doğurmayabilir. Ancak, tıpta, hukukta, havacılıkta, finans gibi yüksek derecede titizlik gerektiren alanlarda meydana gelirse, ciddi sonuçlar doğurabilir. Bu nedenle, AI'nın halüsinasyon ve yanlılık sorununu nasıl çözeceği, AI gelişim sürecinin en temel sorunlarından biri haline gelmiştir.
Şu anda, sektörde çeşitli çözüm önerileri bulunmaktadır. Bazıları, AI ile gerçek zamanlı veritabanını birleştirerek doğrulanmış gerçekleri öncelikli olarak sunmak için arama artırma üretim teknolojisi kullanmaktadır. Bazıları ise, modelin hatalarını düzeltmek için insan geri bildirimi, insan etiketleme ve denetim yoluyla devreye girmektedir.
Mira projesi, AI önyargı ve halüsinasyon problemlerini çözmeye de çalışıyor. Temel düşüncesi, AI'nin güven katmanını inşa ederek AI önyargı ve halüsinasyonunu azaltmak ve AI'nin güvenilirliğini artırmaktır. Peki, Mira bu hedefe nasıl ulaşmayı planlıyor?
Mira'nın temel düşüncesi, birden fazla AI modelinin uzlaşması yoluyla AI çıktılarının doğruluğunu doğrulamaktır. Mira, esasen bir doğrulama ağıdır ve AI çıktılarının güvenilirliğini doğrulamak için birden fazla AI modelinin uzlaşmasını kullanır. Ayrıca, Mira, doğrulama için merkeziyetsiz bir uzlaşma da getirir.
Mira ağının anahtarı, merkeziyetsiz konsensüs doğrulamasındadır. Bu yöntem, kripto alanındaki teknolojilerden yararlanırken, çoklu model iş birliğinin avantajlarını kullanarak, toplu doğrulama modeli aracılığıyla önyargı ve yanılsamaları azaltmaktadır.
Doğrulama mimarisi açısından, Mira protokolü karmaşık içeriği bağımsız olarak doğrulanabilir beyanlara dönüştürmeyi destekler. Bu beyanların doğrulanmasında düğüm işletmecilerinin katılımı gerekmektedir. Düğüm işletmecilerinin dürüstlüğünü sağlamak için, Mira kripto ekonomik teşvik/ceza mekanizmasını benimsemektedir. Farklı AI modelleri ve dağıtık düğüm işletmecileri birlikte çalışarak doğrulama sonuçlarının güvenilirliğini garanti eder.
Mira'nın ağ mimarisi, doğrulamanın güvenilirliğini sağlamak amacıyla içerik dönüşümü, dağıtılmış doğrulama ve konsensüs mekanizmasını içermektedir. Bu mimaride, içerik dönüşümü önemli bir aşamadır. Mira ağı, aday içeriği (genellikle müşteriler tarafından sağlanan) farklı doğrulanabilir beyanlara ayırarak, modelin aynı bağlamda içeriği anlamasını sağlar. Bu beyanlar, beyanın geçerliliğini belirlemek ve sonuçları toplamak için düğümlere doğrulama yapılması amacıyla sistem tarafından dağıtılır. Sonuçta, bu sonuçlar ve konsensüs müşteriye geri döner. Müşteri gizliliğini korumak için, aday içerik beyan çiftlerine dönüşümden geçirilip, rastgele parçalar halinde farklı düğümlere dağıtılır, böylece doğrulama sürecinde bilgi sızıntısı önlenir.
Düğüm operatörleri, doğrulayıcı modelini çalıştırmak, beyanları işlemek ve doğrulama sonuçlarını sunmaktan sorumludur. Doğrulamaya katılmayı istemelerinin nedeni, kazanç elde edebilmeleridir. Bu kazanç, müşteriler için yaratılan değerden gelmektedir. Mira ağı, AI'nın hata oranını azaltmayı (halüsinasyon ve önyargıları azaltmayı) hedeflemektedir; bu hedefe ulaşıldığında sağlık, hukuk, havacılık, finans gibi alanlarda büyük bir değer yaratılacaktır. Bu nedenle, müşteriler bunun için ödeme yapmaya isteklidir. Elbette, ödeme sürdürülebilirliği ve ölçeği, Mira ağının müşterilere sürekli değer sunup sunamayacağına bağlıdır. Düğümlerin rastgele yanıt verme spekülatif davranışlarını önlemek için, sürekli konsensüsten sapma gösteren düğümlerin stake edilmiş token'ları kesilecektir. Genel olarak, Mira, ekonomik mekanizmaların oyunları yoluyla düğüm operatörlerinin dürüst bir şekilde doğrulamaya katılmasını sağlamaktadır.
Mira, AI'nin güvenilirliğini sağlamak için yeni bir yaklaşım sunuyor: Birden fazla AI modelinin üzerine inşa edilen merkeziyetsiz bir konsensüs doğrulama ağı oluşturarak, müşterilerin AI hizmetlerine daha yüksek güvenilirlik kazandırıyor, AI önyargılarını ve halüsinasyonları azaltıyor, müşterilerin daha yüksek doğruluk ve hassasiyet taleplerini karşılıyor. Aynı zamanda, müşterilere değer sağlarken, Mira ağı katılımcılarına gelir getiriyor. Kısacası, Mira AI'nın güven katmanını inşa etmeye çalışıyor, bu da AI uygulamalarının derin gelişimini teşvik edecek.
Şu anda, kullanıcılar Klok aracılığıyla Mira kamu Testnet'ine katılabilirler. Klok, kullanıcıların doğrulanmış AI çıktısını deneyimleyebileceği ve bunu doğrulanmamış AI çıktılarıyla karşılaştırabileceği, Mira tabanlı bir LLM sohbet uygulamasıdır. Katılımcılar ayrıca Mira puanları kazanabilir, ancak bu puanların gelecekteki kullanımı henüz açıklanmamıştır.