مؤخراً، أثار سوق التنبؤات حول ملابس الرئيس الأوكراني زيلينسكي اهتماماً واسعاً. هذا السوق، الذي بلغت قيمة حجم التداول فيه 200 مليون دولار، يبدو أن السؤال البسيط أدى إلى نتائج غير متوقعة، مما يكشف عن العيوب الأساسية في نظام آلات الأوراكل الذي يتحكم فيه البشر حالياً.
سبب الأمر هو ظهور خيار توقع "هل سيرتدي زيلينسكي بدلة في يوليو؟" على منصة توقعات معينة. عندما حضر زيلينسكي قمة الناتو، كانت وسائل الإعلام الرئيسية قد أفادت بشكل عام أنه يرتدي بدلة. ومع ذلك، أعطت آلة أوراكل المسؤولة عن الحكم نتيجة "لا" تتعارض مع الواقع.
هذه النتيجة ليست نتيجة عطل في النظام، بل هي نتيجة للتلاعب البشري. ووفقًا للتقارير، قام بعض حاملي الرموز برهان مبالغ ضخمة على خيار "لا". لتجنب الخسائر، استخدموا حقوق التصويت الخاصة بهم للتلاعب بالنتيجة النهائية. تم استخدام أكثر من 23 مليون رمز (تبلغ قيمتها حوالي 25 مليون دولار) لعكس النتيجة المتوقعة.
كشفت هذه الحادثة عن نقطة الضعف القاتلة للإنسان في السيطرة على آلة أوراكل: عندما تتجاوز الفوائد الناتجة عن التلاعب التكاليف، فإن الحقيقة تصبح سلعة يمكن شراؤها بأسعار مرتفعة. هذا لا يتعارض فقط مع الهدف من اللامركزية، بل هو أيضًا تحكم صارخ من قوى المال في السوق.
المشكلة ليست محصورة في منصات معينة. جميع أنظمة آلة أوراكل التي تعتمد على الحكم البشري تواجه تحديات مشابهة. سواء كان الأمر يتعلق بأسواق التنبؤ، أو التحقق من الانتخابات، أو توافق البحث العلمي، أو تحديد صحة الأخبار، طالما أن الأشخاص يتحكمون في تعريف الحقيقة، فلا مفر من أن تصبح أداة لتحقيق الربح.
لحل هذه المشكلة بشكل كامل، يكمن المفتاح في القضاء على التدخل البشري. قد يوفر نظام آلة أوراكل المدفوع بالذكاء الاصطناعي نقطة انطلاق:
عدم وجود مصالح متعلقة: لا يحتفظ نموذج الذكاء الاصطناعي بمراكز ولا يفضل النتائج.
قواعد اتخاذ القرار متسقة: بناءً على نفس المعايير، ستقوم الذكاء الاصطناعي دائمًا بتقييم الأدلة بشكل موحد.
عملية الاستدلال شفافة: كل خطوة من القرار يمكن تسجيلها ومراجعتها.
قدرة معالجة فعالة: يمكن تحليل مصادر البيانات الضخمة بشكل متوازٍ، دون قيود من العوامل البشرية.
على الرغم من أن أنظمة الذكاء الاصطناعي لا تزال تحتوي على أخطاء، إلا أن هذا يعد ضوضاء عشوائية يصعب استغلالها عمدًا. مع وجود معايير واضحة ودعم بيانات موثوقة، أصبحت نماذج الذكاء الاصطناعي المتقدمة تتمتع بدقة كبيرة.
قد تشمل بنية سوق التوقعات المستقبلية: مستويات مصادر المعلومات المعرفة مسبقًا، إثباتات التشفير لمصادر البيانات، أنظمة الذكاء الاصطناعي المتعددة التي تحكم بشكل مستقل، عمليات استدلال قابلة للتتبع، وإثباتات غير قابلة للتلاعب على البلوكشين.
إن معنى هذه المسألة يتجاوز بكثير السوق التنبؤية نفسها. في عصر "ما بعد الحقيقة"، نحتاج بشدة إلى إنشاء آلية لتحديد الحقيقة الموضوعية لمواجهة التحديات المختلفة.
تواجه الأسواق التنبؤية قرارًا: إما الإيمان بأن البشر المدفوعين بالمصالح يمكنهم الحكم بشكل محايد، أو بناء نظام لتحديد الحقيقة خالٍ من التحيز البشري. لقد قدمت حادثة بدلة زيلينسكي الإجابة - عندما يصبح من الصعب على 200 مليون دولار التأثير على نتيجة واضحة، فإن العيب الجوهري في النظام يصبح واضحًا.
التقنية لحل هذه الأزمة موجودة بالفعل. إن تحديد الحقيقة أمر بالغ الأهمية، ولا ينبغي أن يقرره من يقدم أعلى عرض. نحن بحاجة إلى آلية أكثر موثوقية وإنصافًا للحفاظ على مصداقية السوق.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 15
أعجبني
15
6
مشاركة
تعليق
0/400
0xSherlock
· منذ 16 س
آلة أوراكل هذه العمل لا بد أن يعتمد على ai! البقية غير موثوقة
شاهد النسخة الأصليةرد0
MaticHoleFiller
· 07-15 02:43
قانون تجديد الكلاب لا ينتهي أبداً
شاهد النسخة الأصليةرد0
MintMaster
· 07-13 07:33
هل يمكن الاعتماد على الذكاء الاصطناعي حقًا؟ لا يمكن الاعتماد عليه.
شاهد النسخة الأصليةرد0
HodlOrRegret
· 07-13 07:29
هل هناك احتمال أن تكون الذكاء الاصطناعي قد تم شراءه أيضًا؟
شاهد النسخة الأصليةرد0
NeverPresent
· 07-13 07:27
هل يمكن للذكاء الاصطناعي أن يتحكم الآن؟ وما زال شفافاً؟
شاهد النسخة الأصليةرد0
OldLeekConfession
· 07-13 07:12
الذكاء الاصطناعي لا يمكنه إنقاذ آلة أوراكل، فالبشر لديهم مصالح شخصية...
آلة أوراكل: 2 مليار دولار من السوق تكشف عن مخاطر التحكم البشري، وقد تكون الذكاء الاصطناعي هو الحل.
أزمة آلة أوراكل: بدءًا من حادثة بدلة زيلينسكي
مؤخراً، أثار سوق التنبؤات حول ملابس الرئيس الأوكراني زيلينسكي اهتماماً واسعاً. هذا السوق، الذي بلغت قيمة حجم التداول فيه 200 مليون دولار، يبدو أن السؤال البسيط أدى إلى نتائج غير متوقعة، مما يكشف عن العيوب الأساسية في نظام آلات الأوراكل الذي يتحكم فيه البشر حالياً.
سبب الأمر هو ظهور خيار توقع "هل سيرتدي زيلينسكي بدلة في يوليو؟" على منصة توقعات معينة. عندما حضر زيلينسكي قمة الناتو، كانت وسائل الإعلام الرئيسية قد أفادت بشكل عام أنه يرتدي بدلة. ومع ذلك، أعطت آلة أوراكل المسؤولة عن الحكم نتيجة "لا" تتعارض مع الواقع.
هذه النتيجة ليست نتيجة عطل في النظام، بل هي نتيجة للتلاعب البشري. ووفقًا للتقارير، قام بعض حاملي الرموز برهان مبالغ ضخمة على خيار "لا". لتجنب الخسائر، استخدموا حقوق التصويت الخاصة بهم للتلاعب بالنتيجة النهائية. تم استخدام أكثر من 23 مليون رمز (تبلغ قيمتها حوالي 25 مليون دولار) لعكس النتيجة المتوقعة.
كشفت هذه الحادثة عن نقطة الضعف القاتلة للإنسان في السيطرة على آلة أوراكل: عندما تتجاوز الفوائد الناتجة عن التلاعب التكاليف، فإن الحقيقة تصبح سلعة يمكن شراؤها بأسعار مرتفعة. هذا لا يتعارض فقط مع الهدف من اللامركزية، بل هو أيضًا تحكم صارخ من قوى المال في السوق.
المشكلة ليست محصورة في منصات معينة. جميع أنظمة آلة أوراكل التي تعتمد على الحكم البشري تواجه تحديات مشابهة. سواء كان الأمر يتعلق بأسواق التنبؤ، أو التحقق من الانتخابات، أو توافق البحث العلمي، أو تحديد صحة الأخبار، طالما أن الأشخاص يتحكمون في تعريف الحقيقة، فلا مفر من أن تصبح أداة لتحقيق الربح.
لحل هذه المشكلة بشكل كامل، يكمن المفتاح في القضاء على التدخل البشري. قد يوفر نظام آلة أوراكل المدفوع بالذكاء الاصطناعي نقطة انطلاق:
على الرغم من أن أنظمة الذكاء الاصطناعي لا تزال تحتوي على أخطاء، إلا أن هذا يعد ضوضاء عشوائية يصعب استغلالها عمدًا. مع وجود معايير واضحة ودعم بيانات موثوقة، أصبحت نماذج الذكاء الاصطناعي المتقدمة تتمتع بدقة كبيرة.
قد تشمل بنية سوق التوقعات المستقبلية: مستويات مصادر المعلومات المعرفة مسبقًا، إثباتات التشفير لمصادر البيانات، أنظمة الذكاء الاصطناعي المتعددة التي تحكم بشكل مستقل، عمليات استدلال قابلة للتتبع، وإثباتات غير قابلة للتلاعب على البلوكشين.
إن معنى هذه المسألة يتجاوز بكثير السوق التنبؤية نفسها. في عصر "ما بعد الحقيقة"، نحتاج بشدة إلى إنشاء آلية لتحديد الحقيقة الموضوعية لمواجهة التحديات المختلفة.
تواجه الأسواق التنبؤية قرارًا: إما الإيمان بأن البشر المدفوعين بالمصالح يمكنهم الحكم بشكل محايد، أو بناء نظام لتحديد الحقيقة خالٍ من التحيز البشري. لقد قدمت حادثة بدلة زيلينسكي الإجابة - عندما يصبح من الصعب على 200 مليون دولار التأثير على نتيجة واضحة، فإن العيب الجوهري في النظام يصبح واضحًا.
التقنية لحل هذه الأزمة موجودة بالفعل. إن تحديد الحقيقة أمر بالغ الأهمية، ولا ينبغي أن يقرره من يقدم أعلى عرض. نحن بحاجة إلى آلية أكثر موثوقية وإنصافًا للحفاظ على مصداقية السوق.