هوش مصنوعی جان انسان ها را به خطر می اندازد!

مدیر عامل سابق گوگل از نگرانی های خود در مورد آینده هوش مصنوعی می گوید.

به گزارش جهان تیتر؛ اریک اشمیت، مدیر عامل سابق گوگل می گوید اقدامات ایمنی کافی برای جلوگیری از آسیب فاجعه آمیز هوش مصنوعی وجود ندارد.

اشمیت، که در حال حاضر رئیس کمیسیون امنیت ملی در زمینه هوش مصنوعی (NSCAI) است، هوش مصنوعی را با بمب‌های اتمی که ایالات متحده در سال 1945 در ژاپن در نشستی به میزبانی Axios پرتاب کرد، مقایسه کرد.

اشمیت به مایک آلن، یکی از بنیانگذاران Axios، در جریان تبادل نظر در اجلاس گفت: «پس از ناکازاکی و هیروشیما، 18 سال طول کشید تا معاهده ممنوعیت آزمایش هسته‌ای و مواردی از این دست به دست آید.

اگرچه کسانی که این فناوری را می سازند، از OpenAI گرفته تا خود گوگل و فراتر از آن، مجموعه ای از پادمان ها را برای مهار این فناوری ایجاد کرده اند، اشمیت گفت که فکر می کند پادمان های فعلی ناکافی هستند.

رئیس سابق گوگل گفت که تنها در عرض 5 تا 10 سال، هوش مصنوعی می تواند آنقدر قدرتمند شود که به بشریت آسیب برساند. او ادامه داد: «بدترین سناریو این است که رایانه بتواند به تنهایی تصمیم بگیرد که چه کاری انجام دهد، و اگر آنها بتوانند به سیستم های تسلیحاتی دسترسی داشته باشند یا به قابلیت های وحشتناک دیگری دست یابند، ممکن است در مورد آن به ما انسان ها دروغ بگویند.

اشمیت گفت: برای جلوگیری از چنین نتیجه وحشتناکی، یک سازمان غیردولتی مشابه هیئت بین دولتی تغییرات آب و هوایی سازمان ملل (IPCC) باید ایجاد شود تا اطلاعات دقیقی را در اختیار سیاست گذاران قرار دهد و به آنها کمک کند تا در مورد هوش مصنوعی و پتانسیل آن تصمیم بگیرند.

در حالی که رئیس سابق گوگل به طور مرتب نگرانی های خود را در مورد هوش مصنوعی بیان کرده است، ایان لیکان، رئیس هوش مصنوعی متا، موضعی به شدت مخالف اتخاذ کرده است.

ماه گذشته، لیکان به فایننشال تایمز گفت که این فناوری به اندازه کافی هوشمند نیست

به تنهایی قادر است بشریت را تهدید کند. او و یکی از پیشگامان هوش مصنوعی جفری هینتون، که اوایل امسال گوگل را به دلیل نگرانی هایش در مورد هوش مصنوعی ترک کرد، استدلال کردند که مدل های زبان بزرگ (LLM) به اندازه کافی پیچیده هستند تا بفهمند انسان ها چه می گویند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا