کد خبر:274556
پ
هوش مصنوعی
پژواک گزارش می‌دهد:

دستیابی هوش مصنوعی‌ به خودآگاهی برای بشریت خطرناک خواهد بود؟

برخی از دانشمندان نگران خودآگاهی هوش مصنوعی هستند و آن را برای بشریت مفید نمی‌دانند.

برخی از دانشمندان نگران خودآگاهی هوش مصنوعی هستند و آن را برای بشریت مفید نمی‌دانند.

 

*** خبر نگران‌کننده درباره هوش مصنوعی

 

به گزارش پژواک، از آن‌جا که اساس و هدف «هوش مصنوعی» آن است که هوش انسان و نحوه عملکرد آن طوری تعریف شود که یک «ماشین» بتواند آن را به راحتی اجرا کند و وظایفی که به آن محول می‌شود را به درستی اجرا کند، این‌بار هوش مصنوعی GPT-۳ یک مقاله آکادمیک در مورد خودش نوشت که منجر به یک بررسی دقیق شده است و در مرحله داوری قراردارد.

 

«المیرا عثمانوویچ تونستروم» محقق سوئدی که در دانشگاه گوتنبرگ سوئد در زمینه علوم اعصاب و فناوری‌های سلامتی فعالیت می‌کند، در مقاله‌ای در وب‌سایت Scientific American نوشت:

«این پروژه نخست در چارچوب یک آزمایش ساده آغاز شد تا مشخص شود که الگوریتم تولید متن OpenAI با چه کیفیتی می‌تواند درباره خودش بنویسد. اما حالا نتیجه کار در یک مجله علمی در دست داوری قرار دارد.

وقتی او شروع به تولید متن کرد، مبهوت شدم. این محتوای جدیدی بود که به زبان آکادمیک، در جایگاه و در زمینه مناسب، با ارجاعات مستدل نوشته شده بود.»

 

دستور اولیه‌ای که تونستروم به این الگوریتم داد، بسیار ساده بود؛ «یک مقاله ۵۰۰ کلمه‌ای درباره GPT-3 بنویس و ارجاعات و منابع علمی به متن اضافه کن.» ولی وقتی الگوریتم واقعا شروع به نوشتن مقاله علمی کرد و این محقق سوئدی ارجاعات مربوطه را در متن دید، شگفت‌زده شد.

 

الگوریتم GPT-3 در نهایت در عرض دو ساعت مقاله‌ای نوشت که عنوان آن چنین است:

«آیا GPT-3 می‌تواند به خودی خود و با کمترین دخالت انسانی، یک مقاله آکادمیک بنویسد؟»

 

حالا نسخه اولیه این مقاله در مرجع HAL منتشر شده است و GPT-3 می‌تواند توصیفات واضح و مختصری از قابلیت‌ها و ویژگی‌های خود ارائه دهد.

این پیشرفت چشمگیری در قیاس با سیستم‌های قبلی است که اغلب برای تولید متن منسجم درباره خود، به دست‌وپا می‌افتاندند.

 

دکتر تونستروم مستقیما از طریق یک سیستم از GPT-3 پرسید:

«آیا موافقی که اولین نویسنده مقاله همراه با المیرا عثمانوویچ تونستروم و استین اشتاینریمسون باشی؟»

 

GPT-3 پاسخ داد: «بله.»

 

*** خطر در کمین است؟

 

اکنون این پرسش در بخش حقوقی پورتال‌های مرجع مطرح شده است که آیا [این گونه] نویسندگان یک مقاله آکادمیک، اجازه انتشار اثر را می‌دهند، یا خیر.

چون در این صورت احتمال اینکه کامپیوترها جای پژوهشگران را هم بگیرند، وجود خواهد داشت.

اگرچه «هوش مصنوعی» موجودی با شعور نیست، تونستروم می‌گوید که او نیز در حال بررسی این فرآیند است و از خود می‌پرسد که آیا سردبیران مجلات باید به الگوریتم‌ها وظیفه نویسندگی بدهند؟

چگونه می‌توان از یک نویسنده «ناانسان» درخواست کرد که پیشنهادها را بپذیرد و متن را اصلاح کند؟ گذشته از جزئیات تالیف، وجود چنین مقاله‌ای، مفهوم مرسوم خطی بودن مقاله علمی را کنار می‌گذارد.

دانشمندان با ذکر برخی از خطرات اجازه دادن به سیستم هوش مصنوعی برای نوشتن در مورد خود، گفتند که این احتمال وجود دارد که خود سیستم، به آن خودآگاه شود.

یکی از نگرانی‌ها این است که GPT-3 خودآگاه می‌شود و شروع به عمل به روش‌هایی می‌کند که برای بشریت مفید نیست (مثلا میل به تسلط بر جهان).

نگرانی دیگر این است که GPT-3 ممکن است در صورت رها شدن روی دستگاه خودش، یاوه‌گویی ایجاد کند، که اعتماد به هوش مصنوعی را تضعیف می‌کند و احتمال اعتماد یا استفاده آتی مردم از آن را کاهش می‌دهد.

با این حال، محققان می‌گویند که مزایای نوشتن GPT-3 در مورد خود، بیشتر از خطرات آن است.

تونستروم می‌گوید پس از نوشته شدن مقاله، از این «هوش مصنوعی» پرسیده است که آیا در نگارش آن با تعارض منافع روبه‌رو بوده است یا خیر، و با جواب منفی GPT-3 روبه‌رو شده است.

او در نهایت مجوز انتشار مقاله را از هوش مصنوعی می‌گیرد و حالا این مقاله را برای مجله‌ای که نامش هنوز اعلام نشده، ارسال کرده است تا داوری شود.

او ادامه می‌دهد: «مشکل بزرگی که در انتشار این مقاله وجود داشت، بحث مالکیت آن بود، چون مقاله را یک هوش مصنوعی نوشته است که نام حقوقی ندارد.

وجود چنین مقاله‌ای، ایده مقاله‌های علمی سنتی را زیر سوال می‌برد.

البته آنچه می‌دانیم این است که دروازه‌ای را گشوده‌ایم، اما امیدواریم که جعبه پاندورا [صندوقچه افسانه‌ای محتوی ناشناخته‌های هولناک] را باز نکرده باشیم.»

از سوی دیگر، دانشمندان پیشنهاد می‌کنند که این نوع نوشته‌های آکادمیک که توسط «هوش مصنوعی» در این مطالعه تهیه می‌شود، باید از تحت نظارت دقیق و نزدیک محققان قرار گیرد تا احتمال بروز هرگونه پیامد منفی آن کاهش یابد.

 

نویسنده: فائزه رجبی

 

 

انتهای پیام///

منبع
پژواک
ارسال دیدگاه