مطلب آیا هوش مصنوعی بشریت را نجات می‌دهد یا به پایان می‌رساند؟ در BitcoinEthereumNews.com منتشر شد. به طور خلاصه یک پنل آنلاین شکاف عمیقی بین ترانس‌اومانیست‌ها را به نمایش گذاشتمطلب آیا هوش مصنوعی بشریت را نجات می‌دهد یا به پایان می‌رساند؟ در BitcoinEthereumNews.com منتشر شد. به طور خلاصه یک پنل آنلاین شکاف عمیقی بین ترانس‌اومانیست‌ها را به نمایش گذاشت

آیا هوش مصنوعی بشریت را نجات خواهد داد—یا آن را نابود خواهد کرد؟

به طور خلاصه

  • یک پنل آنلاین شکاف عمیقی بین ترانس‌اومانیست‌ها و فناوران در مورد AGI نشان داد.
  • نویسنده الیعزر یودکوفسکی هشدار داد که سیستم‌های هوش مصنوعی "جعبه سیاه" کنونی، انقراض را به نتیجه‌ای اجتناب‌ناپذیر تبدیل می‌کنند.
  • مکس مور استدلال کرد که تاخیر در AGI می‌تواند بهترین شانس بشریت برای شکست دادن پیری و جلوگیری از فاجعه بلندمدت را هزینه‌بر کند.

این هفته شکاف شدیدی بر سر آینده هوش مصنوعی به وقوع پیوست، زمانی که چهار فناور و ترانس‌اومانیست برجسته در مورد اینکه آیا ساخت هوش مصنوعی عمومی یا AGI، بشریت را نجات می‌دهد یا نابود می‌کند، بحث کردند.

پنلی که توسط سازمان غیرانتفاعی Humanity+ میزبانی شد، یکی از پرسروصداترین "مرگ‌گرایان" هوش مصنوعی، الیعزر یودکوفسکی را که خواستار توقف توسعه هوش مصنوعی پیشرفته شده است، در کنار فیلسوف و آینده‌پژوه مکس مور، عصب‌شناس محاسباتی آندرس سندبرگ و رئیس افتخاری Humanity+ ناتاشا ویتا-مور گرد هم آورد.

بحث آنها اختلافات اساسی را بر سر اینکه آیا AGI می‌تواند با بقای انسان هماهنگ شود یا اینکه ایجاد آن انقراض را اجتناب‌ناپذیر می‌کند، آشکار کرد.

مشکل "جعبه سیاه"

یودکوفسکی هشدار داد که سیستم‌های هوش مصنوعی مدرن اساساً ناامن هستند، زیرا فرآیندهای تصمیم‌گیری داخلی آنها نمی‌تواند به طور کامل درک یا کنترل شود.

یودکوفسکی هشدار داد: "هر چیزی که جعبه سیاه باشد، احتمالاً با مشکلات بسیار مشابهی با فناوری فعلی روبرو می‌شود." او استدلال کرد که بشریت باید "بسیار، بسیار دور از پارادایم‌های فعلی" حرکت کند، قبل از اینکه هوش مصنوعی پیشرفته بتواند به طور ایمن توسعه یابد.

هوش مصنوعی عمومی به شکلی از هوش مصنوعی اشاره دارد که می‌تواند در طیف گسترده‌ای از وظایف استدلال و یادگیری کند، نه اینکه برای یک کار واحد مانند تولید متن، تصویر یا ویدیو ساخته شود. AGI اغلب با ایده تکینگی فناوری مرتبط است، زیرا رسیدن به آن سطح از هوش می‌تواند ماشین‌ها را قادر سازد تا خود را سریع‌تر از آنچه انسان‌ها می‌توانند با آن همراه شوند، بهبود بخشند.

یودکوفسکی به قیاس "بیشینه‌ساز گیره کاغذ" که توسط فیلسوف نیک بوستروم محبوب شده، اشاره کرد تا خطر را نشان دهد. این آزمایش فکری شامل یک هوش مصنوعی فرضی است که تمام مواد موجود را به گیره‌های کاغذ تبدیل می‌کند و وابستگی خود را به یک هدف واحد به قیمت بشریت ادامه می‌دهد. یودکوفسکی گفت، افزودن اهداف بیشتر، به طور معناداری امنیت را بهبود نخواهد بخشید.

یودکوفسکی با اشاره به عنوان کتاب اخیر خود درباره هوش مصنوعی، "اگر کسی آن را بسازد، همه می‌میرند"، گفت: "عنوان ما این نیست که ممکن است احتمالاً شما را بکشد. عنوان ما این است که اگر کسی آن را بسازد، همه می‌میرند."

اما مور این فرض را که احتیاط شدید امن‌ترین نتیجه را ارائه می‌دهد، به چالش کشید. او استدلال کرد که AGI می‌تواند بهترین شانس بشریت برای غلبه بر پیری و بیماری را فراهم کند.

مور بیان کرد: "مهم‌ترین چیز برای من این است که AGI می‌تواند به ما کمک کند تا از انقراض هر فردی که به دلیل پیری زنده است، جلوگیری کنیم. همه ما در حال مردن هستیم. ما یکی یکی به سمت یک فاجعه می‌رویم." او هشدار داد که محدودیت بیش از حد می‌تواند دولت‌ها را به سمت کنترل‌های استبدادی به عنوان تنها راه برای متوقف کردن توسعه هوش مصنوعی در سراسر جهان سوق دهد.

سندبرگ خود را بین دو اردوگاه قرار داد و خود را "خوش‌بین‌تر" توصیف کرد، در حالی که از خوش‌بینان ترانس‌اومانیست محتاط‌تر باقی ماند. او تجربه شخصی‌ای را بازگو کرد که در آن تقریباً از یک مدل زبانی بزرگ برای کمک به طراحی یک سلاح بیولوژیکی استفاده کرد، اپیزودی که آن را "وحشتناک" توصیف کرد.

سندبرگ گفت: "ما به نقطه‌ای می‌رسیم که تقویت بازیگران مخرب نیز باعث یک آشفتگی بزرگ خواهد شد." با این حال، او استدلال کرد که امنیت جزئی یا "امنیت تقریبی" می‌تواند قابل دستیابی باشد. او ایده اینکه امنیت باید کامل باشد تا معنادار باشد را رد کرد و پیشنهاد کرد که انسان‌ها حداقل می‌توانند بر ارزش‌های مشترک حداقلی مانند بقا همگرا شوند.

او گفت: "بنابراین اگر شما امنیت کامل را مطالبه کنید، آن را بدست نخواهید آورد. و این از آن دیدگاه بسیار بد به نظر می‌رسد. از طرف دیگر، من فکر می‌کنم که ما واقعاً می‌توانیم امنیت تقریبی داشته باشیم. این به اندازه کافی خوب است."

شک به هماهنگی

ویتا-مور از بحث گسترده‌تر هماهنگی انتقاد کرد و استدلال کرد که این مفهوم سطحی از اجماع را فرض می‌کند که حتی در میان همکاران دیرینه وجود ندارد.

او گفت: "مفهوم هماهنگی یک طرح خوش‌بینانه است. هرگز هماهنگ نخواهد شد. یعنی، حتی اینجا، همه ما افراد خوبی هستیم. ما یکدیگر را دهه‌هاست می‌شناسیم و هماهنگ نیستیم."

او ادعای یودکوفسکی را مبنی بر اینکه AGI به طور اجتناب‌ناپذیر همه را خواهد کشت، "تفکر مطلق‌گرایانه" توصیف کرد که جایی برای نتایج دیگر باقی نمی‌گذارد.

او گفت: "من با این بیانیه گسترده که همه می‌میرند مشکل دارم. رویکرد به این موضوع به عنوان یک آینده‌پژوه و یک متفکر عمل‌گرا، هیچ عاقبتی، هیچ جایگزینی، هیچ سناریوی دیگری را باقی نمی‌گذارد. این فقط یک ادعای صریح است و من تعجب می‌کنم که آیا این نوعی تفکر مطلق‌گرایانه را منعکس می‌کند."

بحث شامل مناظره‌ای درباره اینکه آیا یکپارچگی نزدیک‌تر بین انسان‌ها و ماشین‌ها می‌تواند خطر ناشی از AGI را کاهش دهد—چیزی که ایلان ماسک، مدیرعامل Tesla در گذشته پیشنهاد کرده است، بود. یودکوفسکی ایده ادغام با هوش مصنوعی را رد کرد و آن را با "تلاش برای ادغام با فر توستر خود" مقایسه کرد.

سندبرگ و ویتا-مور استدلال کردند که با رشد قابلیت سیستم‌های هوش مصنوعی، انسان‌ها باید نزدیک‌تر با آنها یکپارچه یا ادغام شوند تا بهتر با دنیای پس از AGI کنار بیایند.

ویتا-مور گفت: "این کل بحث یک بررسی واقعیت از اینکه ما به عنوان انسان چه کسانی هستیم، است."

خبرنامه گزارش روزانه

هر روز را با مهم‌ترین داستان‌های خبری در همین لحظه، به اضافه ویژگی‌های اصلی، پادکست، ویدیوها و موارد بیشتر شروع کنید.

منبع: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل [email protected] با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.