نشستی علمی–ترویجی با عنوان «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی» به همت دبیرخانه کرسی‌های نظریه‌پردازی، نقد و مناظره علمی معاونت پژوهش و فناوری دانشگاه رازی و با همکاری معاونت فرهنگی و اجتماعی، روز دوشنبه ۱۹ خرداد ۱۴۰۴ از ساعت ۱۰ تا ۱۲ در سالن جلسات شماره ۱ دانشکده ادبیات و علوم انسانی به‌صورت حضوری و مجازی برگزار شد و شرکت کنندگان از سایر دانشگاه و همچنین دانشگاه رازی توانستند به جلسه ورود کنند. در این نشست حدود ۸۰ نفر حضوری و مجازی شرکت کردند.

در این نشست، دکتر حمید احمدی، استادیار گروه علم اطلاعات و دانش‌شناسی دانشگاه رازی به‌عنوان ارائه‌دهنده به بررسی تعارضات اخلاقی ناشی از کاربرد‌های فزاینده هوش مصنوعی در پژوهش‌های علمی پرداخت. ناقدان علمی این ارائه دکتر عبدالله چاله‌چاله، دانشیار گروه مهندسی کامپیوتر و دکتر کیانوش چغامیرزا، استاد گروه مهندسی تولید و ژنتیک گیاهی دانشگاه رازی بودند. همچنین، دبیری علمی این جلسه بر عهده سرکار خانم دکتر عزت رفیعی، استاد گروه شیمی معدنی دانشگاه رازی بود.

در ابتدای نشست علمی–ترویجی سرکار خانم دکتر عزت رفیعی سخنانی در باب ضرورت توجه به مسئولیت‌پذیری در استفاده از هوش مصنوعی ایراد کردند. ایشان با اشاره به رشد سریع ابزار‌های هوش مصنوعی در فضای آکادمیک و پژوهشی، تأکید کردند که گرچه استفاده از این فناوری اجتناب‌ناپذیر شده، اما جامعه علمی هنوز در بسیاری از زمینه‌ها دچار سردرگمی است و مشخص نیست چگونه باید با این پدیده نوظهور مواجه شد.

دکتر رفیعی از تجربه‌های اخیر در داوری مقالات علمی سخن گفتند و بیان داشتند که اکنون پرسش‌هایی در فرآیند داوری مطرح می‌شود که پیش‌تر سابقه نداشته است، از جمله اینکه آیا نویسندگان مقاله از ابزار‌های هوش مصنوعی استفاده کرده‌اند یا خیر و اگر چنین بوده، از چه نسخه‌ای استفاده شده است. ایشان تأکید کردند که در غیاب قوانین و دستورالعمل‌های مشخص، سردرگمی میان داوران، نویسندگان و حتی ناشران علمی مشهود است. برخی از مجلات و ناشران استفاده از هوش مصنوعی در فرآیند نگارش مقاله را به‌طور کلی ممنوع کرده‌اند، در حالی که برخی دیگر همچنان موضع روشنی اتخاذ نکرده‌اند.

ایشان همچنین به وضعیت متناقضی که در سطح بین‌المللی در این زمینه حاکم است اشاره کردند و افزودند: لازم است چارچوب‌های مشخص، شفاف و کاربردی برای استفاده مسئولانه از هوش مصنوعی در پژوهش‌ها تدوین شود تا ضمن بهره‌گیری از توانمندی‌های این فناوری در بهبود کیفیت فعالیت‌های علمی، از بروز تخلفات پژوهشی و تضعیف اعتماد به تولیدات علمی جلوگیری شود. در پایان، دکتر رفیعی استفاده از هوش مصنوعی را فرصتی برای ارتقای پژوهش دانستند، به‌شرط آنکه چالش‌های مرتبط با آن شناسایی و با نگاهی نقادانه و قانون‌مند برطرف شود. در ادامه دکتر احمدی به شرح ذیل به بیان ایده‌ها و نظرات خود پرداخنتد.

شرح ایده‌ها و نظریات ارائه دهنده

استفاده گسترده از هوش مصنوعی در پژوهش، پیامد‌های مهمی به دنبال داشته و بر ضرورت رعایت اصول اخلاقی در کاربرد این فناوری تأکید می‌کند. امروزه پژوهشگران به طور گسترده از ابزار‌های هوش مصنوعی در نگارش مقالات علمی بهره می‌برند؛ از تولید ایده و محتوا گرفته تا تنظیم ساختار، مدیریت منابع و ویرایش زبانی. مدل‌های تولید متن مبتنی بر هوش مصنوعی می‌توانند در خلق ایده و نگارش پیش‌نویس مقالات یاری‌رسان باشند. همچنین، ابزار‌های هوش مصنوعی برای بررسی گرامر و بهبود سبک نگارش در نرم‌افزار‌های پژوهشی ادغام شده‌اند تا کیفیت متون علمی ارتقا یابد. این فناوری با ارائه پاسخ‌های سریع و تحلیل‌های دقیق به پرس‌وجو‌های پژوهشی، سرعت کشف دانش، انجام آزمایش‌ها و انتشار نتایج را به شکل چشمگیری افزایش می‌دهد. به طور کلی، هوش مصنوعی با خودکارسازی وظایف و ارائه تحلیل‌های پیشرفته، کارایی و دسترسی به پژوهش را بهبود می‌بخشد و به پژوهشگران امکان می‌دهد تا به نتایج ارزشمندتری دست یابند.

در ادامه دکتر احمدی گفتند: همان‌طور که هوش مصنوعی بیشتر در فرآیند‌های اصلی پژوهش و انتشار گنجانده می‌شود، مسائل اخلاقی پیچیده‌ای را به وجود می‌آورد که جامعه دانشگاهی و ... باید با دقت بشناسد تا بتوان از این فناوری به شیوه‌ای مسئولانه در پیشبرد دانش استفاده کرد.

ایشان گفتند: رایج‌ترین نگرانی‌های مطرح شده درباره کاربرد هوش مصنوعی در پژوهش‌های علمی معمولا به این بر می‌گردد که آیا اصولاً بابد از آن استفاده کرد؛ چنانچه استفاده شود می‌توان آن را به عنوان یک نویسنده پذیرفت یا به عبارتی مسأله مالکین نویسندگی آن چه می‌شود. همچنین حفظ حریم خص. صی و ایجاد شفافیت در آن چه می‌شود. دیگر اینکه چگونه از کیفیت و صحت سنجی آن مطلع شویم و در نهایت چگونه آن را در پژوهش افشا کنیم؟ عبارتند از:

(الف) آیا استفاده از این ابزار‌ها در نگارش پژوهشی اصلاً مناسب است؟

(ب) مسائل مربوط به مالکیت نویسندگی و نحوه انتساب به هوش مصنوعی؛

(پ) حفظ حریم خصوصی و ایجاد شفافیت در فرآیند استفاده از این فناوری؛

(ت) کیفیت، قابلیت اطمینان و صحت‌سنجی مطالب تولیدشده توسط هوش مصنوعی؛

(ث) لزوم افشای عمومی استفاده از هوش مصنوعی در فرآیند تحقیق و نگارش.

به گفته دکتر احمدی: مسئله استفاده یا عدم استفاده از ابزار‌های هوش مصنوعی در فرآیند نگارش پژوهشی، یکی از مسائل اخلاقی مهم و حیاتی برای جامعه آکادمیک محسوب می‌شود. برخی از کارشناسان به دلیل تأثیرات بالقوه این فناوری بر یکپارچگی فرآیند تحقیق و نگارش، استفاده از هوش مصنوعی را در این زمینه ناپسند می‌دانند در حالی که دیگران از گنجاندن این فناوری در فرآیند پژوهش و نگارش حمایت می‌کنند.

در ادامه دکتر احمدی بیان داشتند: پژوهشگرانی که قصد انتشار کار‌های خود را دارند با دستورالعمل‌های متناقضی مواجه هستند. برخی از ناشران برجسته مانند الزویر، تیلور و فرانسیس و سیج، نه تنها استفاده از ابزار‌های هوش مصنوعی را مجاز می‌دانند، بلکه آن را تشویق هم می‌کنند. در مقابل، برخی مجلات دیگر، مانند مجله «ساینس»، مقالاتی که با کمک هوش مصنوعی نوشته شده‌اند را بدون پذیرش رد می‌کنند. این تفاوت در رویکرد‌ها و سیاست‌های مجلات و ناشران مختلف نسبت به کاربرد هوش مصنوعی در پژوهش و انتشارات علمی، سبب ایجاد سردرگمی در میان جامعه علمی شده است. مشکل دیگری که در استفاده از هوش مصنوعی در پژوهش وجود دارد، نحوه تعیین «نویسندگی» و شناسایی سهم هر فرد یا ابزار در نوشتن مقاله است. با پیشرفت هوش مصنوعی و کمک بیشتر آن به کار‌های پژوهشی مثل نوشتن متون، تشخیص اینکه چه کاری را انسان انجام داده و چه بخشی توسط ماشین خلق شده، سخت‌تر شده است. اگر قوانین مشخصی برای تعیین نویسندگی وجود نداشته باشد، ممکن است ابهامات زیادی به وجود بیاید. این ابهام می‌تواند به موقعیت شغلی محققان آسیب بزند، انگیزه آنها را کاهش دهد و باعث شود کیفیت و صحت مقالات منتشر شده زیر سوال برود. بنابراین، لازم است معیار‌های دقیق و روشنی برای تعیین نویسندگی ارائه شود تا محققان بدانند چه کار‌هایی مناسب است و چه مسئولیت‌هایی بر عهده دارند.

در ادامه ایشان گفتند: یکی دیگر از مسائلی که درباره استفاده از هوش مصنوعی در نوشتن مقالات پژوهشی وجود دارد، این است که آیا مطالبی که توسط هوش مصنوعی نوشته می‌شوند ممکن است مثل سرقت ادبی باشند یا نه. تا الان هیچ توافق مشخصی در این مورد وجود ندارد. در حال حاضر هیچ قاعده روشنی وجود ندارد که مشخص کند چه زمانی یک مطلب "اصیل" است و چه زمانی شبیه به کار‌هایی است که قبلاً در داده‌های آموزشی هوش مصنوعی بوده است. همچنین باید معیار‌های مشخصی تعیین شود که بتوان با آنها تفاوت میان مطالبی که هوش مصنوعی نوشته و کپی کردن از دیگران را تشخیص داد. همچنین باید دستورالعمل‌هایی وجود داشته باشد که مشخص کند چگونه بنویسیم و ارزیابی کنیم. این معبار‌ها به ما کمک می‌کنند تا بفهمیم کدام بخش‌ها ایده جدید هستند و کدام‌ها شبیه به کار‌های قبلی، و بدین ترتیب مالکیت فکری را بهتر حفظ کنیم. همچنین بسیاری از محققان ممکن است نگران باشند که اگر استفاده از هوش مصنوعی در نوشتن مقاله‌شان را اعلام کنند، مجلات ممکن است مقاله‌شان را رد کنند. این مسئله نشان می‌دهد که نیاز است تا سیاست‌ها و دیدگاه‌های مختلف ناشران، سردبیران، دانشمندان و نهاد‌های نظارتی با هم هماهنگ شوند. این هماهنگی به ایجاد یک دستورالعمل مشترک و روشن برای استفاده مسئولانه از هوش مصنوعی در نوشتن مقالات علمی کمک خواهد کرد. هدف این کرسی این است که دیدگاه‌های مختلف را جمع کند و راهنمایی ساده، روشن و یکپارچه برای محققان فراهم کند که بر شفافیت، مالکیت، حریم خصوصی و حفظ یکپارچگی کار پژوهشی تأکید داشته باشد.

دکتر احمدی گفتند: این کرسی یا نشست به بررسی مسائل اخلاقی در استفاده از هوش مصنوعی برای نوشتن مقالات علمی می‌پردازد. هدف این است که با پاسخ دادن به چند سوال مهم، بهتر بفهمیم چه مشکلاتی وجود دارد و چگونه می‌توان از این فناوری به شیوه‌ای درست و مسئولانه استفاده کرد.

۱. آیا خوب است که از هوش مصنوعی برای کمک به نوشتن مقالات علمی استفاده کنیم؟

۲. آیا می‌شود گفت که یک هوش مصنوعی یک "نویسنده" است؟

۳. وقتی یک مطلب با کمک هوش مصنوعی نوشته می‌شود، چگونه تشخیص دهیم اصیل است یا چیزی شبی سرقت ادبی؟

۴. چه قوانینی لازم است تا استفاده از هوش مصنوعی در نوشتن مقاله‌ها شفاف و منظم باشد؟

۵. آیا باید همیشه برونداد‌های هوش مصنوعی را قبل از استفاده بررسی کنیم؟

در پایان احمدی بیان داشتند برای پاسخ به این سوالات، نظرات متخصصان و مقالات علمی منتشر شده در خارج از ایران، همراه با دستورالعمل‌های مجلات و ناشران معتبر علمی مرور می‌شوند.

سخنان دبیر جلسه بعد از ارائه کننده:

در پایان سخنان دکتر احمدی به‌عنوان ارائه‌دهنده اصلی نشست، سرکار خانم دکتر عزت رفیعی، دبیر علمی جلسه، در جمع‌بندی مباحث مطرح‌شده، بر اهمیت برگزاری چنین نشست‌هایی برای روشنگری و گفت‌و‌گو درباره موضوعات نوپدید و پیچیده‌ای همچون تعارضات اخلاقی در به‌کارگیری هوش مصنوعی تأکید کردند. ایشان خاطرنشان کردند که این نشست‌ها نه‌تنها برای پژوهشگران و دانشگاهیان، بلکه برای تصمیم‌گیران، سیاست‌گذاران، سردبیران مجلات علمی، و نهاد‌های فعال در حوزه نشر از اهمیت ویژه‌ای برخوردار است، چرا که می‌تواند به تدوین سیاست‌های جامع‌تر و منسجم‌تری در مواجهه با این پدیده کمک کند.

دکتر رفیعی ضمن اشاره به ابعاد گسترده استفاده از هوش مصنوعی، فراتر از نگارش مقاله، به موضوع ترجمه کتاب نیز پرداختند و بیان کردند که امروزه شاهد ترجمه روان و دقیق کتاب‌ها توسط ابزار‌های هوش مصنوعی هستیم، حتی از زبان‌هایی غیر از انگلیسی به زبان فارسی. با این حال، نگرانی‌هایی نیز وجود دارد؛ از جمله اینکه در بسیاری از موارد، در گزارش‌های ناشران یا مقدمه‌های مترجمان، به‌هیچ‌وجه به استفاده از این ابزار‌ها اشاره‌ای نمی‌شود. ایشان تأکید کردند که این پنهان‌کاری می‌تواند موجب خدشه به شفافیت علمی و اعتماد عمومی شود. در پایان، دکتر رفیعی بر ضرورت طراحی سازوکار‌هایی شفاف برای اعلام و تنظیم استفاده از هوش مصنوعی در تمامی فرایند‌های علمی و انتشاراتی، از مقاله نویسی گرفته تا ترجمه کتاب، تأکید کردند.

سخنان ناقد اول

در ادامه نشست علمی–ترویجی «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، جناب آقای دکتر کیانوش چغامیرزا، استاد گروه مهندسی تولید و ژنتیک گیاهی دانشگاه رازی، به‌عنوان نخستین ناقد، پس از تقدیر از دکتر احمدی برای ارائه خلاقانه و استقبال شرکت‌کنندگان، نکاتی را در نقد و تأمل بر محتوای ارائه‌شده مطرح کرد. وی با تأکید بر اینکه از منظر فنی قصد ورود به جزئیات ندارد، به جایگاه محوری کرسی‌های ترویجی در طرح مباحث کلان، و لزوم پرداختن به مسائل روز، به‌ویژه موضوع هوش مصنوعی، اشاره کرد. دکتر چغامیرزا، ضمن ارج نهادن به منابع و نکاتی که توسط ارائه‌دهنده مطرح شد، بحث را به حوزه اخلاق در پژوهش معطوف کرد و بیان داشت: اصول اخلاقی در پژوهش، مسائلی روشن و شناخته‌شده هستند و خط قرمز‌ها برای همه پژوهشگران مشخص است.

وی با مقایسه‌ای تاریخی، ورود هوش مصنوعی به فرآیند پژوهش را مشابه ورود اینترنت به فضای تحقیقاتی دانست و گفت: زمانی پژوهشگران ناچار بودند برای دسترسی به منابع، به‌صورت حضوری به کتابخانه‌ها مراجعه کنند؛ اما اینترنت این روند را تسهیل کرد و موجب سرعت‌بخشی شد، بی‌آنکه اصول اخلاقی پژوهش تغییر کند. به‌زعم ایشان، هوش مصنوعی نیز ابزاری است که می‌تواند پژوهش را تسهیل کند و در خدمت انسان باشد، اما نباید به آن بیش از حد اعتماد کرد یا از آن ترسید. وی تأکید کرد که استفاده از هوش مصنوعی ذاتاً نگران‌کننده نیست، بلکه آنچه اهمیت دارد، حفظ اصول اخلاقی پیشین است.

دکتر چغامیرزا، ضمن مخالفت با نگارش بیانیه‌ها و تدوین قوانین پیچیده پیرامون استفاده از هوش مصنوعی، اظهار داشت که این رویکرد می‌تواند موجب سردرگمی بیشتر شود. به اعتقاد او، انسان اخلاق‌مدار در هر شرایطی، چه با ابزار هوش مصنوعی و چه بدون آن، رفتار اخلاقی را حفظ خواهد کرد. وی افزود: «ما می‌توانیم از هوش مصنوعی به‌خوبی استفاده کنیم، به شرطی که گول آن را نخوریم. در نهایت، تحلیل داده‌ها و فهم نتایج هنوز به هوش انسانی نیاز دارد.»

او هشدار داد که هرچند این ابزار می‌تواند سودمند باشد، اما در برخی موارد دچار خطا می‌شود و نباید به‌طور کامل به آن اعتماد کرد؛ چرا که ممکن است اطلاعات نادرست یا گمراه‌کننده ارائه دهد. دکتر چغامیرزا، معتقد بود هوش مصنوعی، مانند هر فناوری دیگر، قابلیت استفاده درست و نادرست را دارد، و در نهایت این خود پژوهشگر است که باید مراقب بروز بی‌اخلاقی‌ها باشد.

در پایان، ایشان به تصمیم اخیر وزارت بهداشت درباره ممنوعیت استفاده از هوش مصنوعی در داوری مقالات اشاره کرد و آن را نمونه‌ای از واکنش‌های محتاطانه دانست که به‌جای حل مسأله، گاهی بر ابهامات می‌افزایند. او پیشنهاد کرد که به‌جای برخورد‌های سلبی، بر آموزش و تقویت اخلاق پژوهشی تمرکز شود و اجازه دهیم جامعه علمی در مسیر تعامل سازنده با این فناوری رشد یابد.

سخنان ناقد دوم

در نشست کرسی علمی–ترویجی با عنوان «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، دکتر عبدالله چاله‌چاله، دانشیار گروه مهندسی کامپیوتر، به‌عنوان ناقد دوم سخنان خود را در پی ارائه‌ی دکتر احمدی مطرح کرد. وی ابتدا از ارائه‌ی دکتر احمدی تشکر کرد و عنوان ارائه را خلاقانه و در عین حال ضروری دانست. به نظر وی، عنوان این نشست به‌خوبی توانسته بود توجه مخاطبان را جلب کند و در عین حال نیاز روز جامعه علمی را هدف بگیرد.

چاله‌چاله در ادامه از ادبیات مناسب و سؤالات خوبی که در جریان ارائه مطرح شد، قدردانی کرد، اما به نبود شماره‌گذاری در اسلاید‌ها اشاره نمود و آن را از جمله ضعف‌های ارائه دانست که می‌تواند در پیگیری مباحث برای مخاطب ایجاد اشکال کند. همچنین تأکید کرد که ارائه باید در دسترس عموم قرار گیرد تا دیگر محققان و پژوهشگران نیز بتوانند از آن بهره ببرند.

وی نقدی به ساختار ارائه وارد کرد و اظهار داشت که مقدمه‌ای در خصوص تعریف هوش مصنوعی در اسلاید‌ها گنجانده نشده بود و مسائل فنی این حوزه نیز بیان نشد. او پیشنهاد کرد که بهتر بود چند اسلاید ابتدایی به تبیین مفاهیم پایه‌ای هوش مصنوعی اختصاص داده می‌شد تا زمینه‌سازی مناسب‌تری برای مخاطب فراهم گردد.

چاله‌چاله به‌شدت با دیدگاه برخی ناشران که استفاده از هوش مصنوعی را نفی می‌کنند، مخالفت کرد و این نگاه را غیرمنطقی و ناسازگار با شرایط کنونی جهانی دانست. به اعتقاد وی، این رویکرد از سوی ناشران در آینده تغییر خواهد کرد، زیرا استفاده از هوش مصنوعی در پژوهش، امری اجتناب‌ناپذیر و منطقی است. او با اشاره به اینکه جهان امروز با فناوری در هم تنیده است، گفت که حذف یا نادیده گرفتن هوش مصنوعی، هم‌راستا با واقعیت‌های موجود نیست.

وی افزود که تمرکز اصلی ارائه‌ی دکتر احمدی بیشتر بر پردازش متن بود، در حالی که هوش مصنوعی کاربرد‌های بسیار گسترده‌تری دارد. به عقیده‌ی او، لازم بود در سخنرانی به جنبه‌های متنوع این فناوری نیز پرداخته می‌شد و نمونه‌هایی از کاربرد آن در حوزه‌های مختلف ارائه می‌گردید.

او به مدل‌های زبانی بزرگ اشاره کرد و اذعان داشت که این ابزار‌ها می‌توانند نقش بسیار مفیدی در نگارش مقالات علمی ایفا کنند. چاله‌چاله اظهار کرد که نمی‌توان صرفاً به این دلیل که متنی با کمک هوش مصنوعی تولید شده، اعتبار آن را زیر سؤال برد. او معتقد است این مدل‌ها قابلیت ارائه ایده‌های متنوع، طبقه‌بندی‌شده و سازمان‌یافته را دارند که برای پژوهشگران بسیار ارزشمند است.

در عین حال، چاله‌چاله به چالش‌های این فناوری نیز اشاره کرد. به گفته‌ی او، خطاها، سوگیری‌ها و اشتباهات داده‌ای از جمله معایب بالقوه مدل‌های زبانی هستند. او نمونه‌هایی از این چالش‌ها را از کشور‌های غربی مانند هلند و شرکت آمازون مطرح کرد، که در استفاده از مدل‌های مبتنی بر هوش مصنوعی برای ارزیابی رزومه‌ها، به مشکلاتی برخوردند و در نهایت این فناوری را کنار گذاشتند. از نظر او، وجود یک ناظر انسانی در کنار هوش مصنوعی امری ضروری است تا بتوان خطا‌ها را مدیریت کرد و از بروز مشکلات جدی جلوگیری نمود.

دکتر چاله‌چاله بر این باور بود که با وجود چالش‌ها، استفاده از هوش مصنوعی در حال گسترش است و نتایجی که ارائه می‌دهد گاه بسیار شگفت‌انگیز و فراتر از انتظار است. او عملکرد این ابزار‌ها را شبیه به یک انسان توانمند دانست که می‌تواند پاسخ‌هایی دقیق و کاربردی ارائه دهد. با این حال، تأکید کرد که نقش عامل انسانی نباید نادیده گرفته شود، زیرا حضور انسان در کنار ماشین می‌تواند احتمال خطا را به حداقل برساند.

او در ادامه سخنانش بیان کرد که دکتر احمدی به مسائل مفید و مهمی، چون اجماع ناشران، توصیه‌های سیاستی آنان و پیامد‌های این روند در آینده اشاره کرد که بسیار ارزشمند بود. با این وجود، از نظر چاله‌چاله، ایشان به‌طور مستقیم وارد طرح چالش‌ها نشدند و بیشتر به تعارضات اشاره کردند، در حالی که انتظار می‌رفت مباحثی، چون چیستی اخلاق و تعاریف متنوع آن نیز نقد و بررسی شود تا فهم دقیق‌تری از زمینه بحث حاصل گردد.

دکتر چاله‌چاله پیشنهاد داد که محتوای این نشست در اختیار معاونت پژوهش و فناوری قرار گیرد تا وزارت علوم، تحقیقات و فناوری بتواند با استفاده از آن موضع رسمی خود را در قالب یک بیانیه اعلام کند. به گفته‌ی او، وزارتخانه تا امروز در قبال این مسئله سکوت کرده و لازم است سیاست‌گذاری مشخصی در این زمینه انجام دهد.

او همچنین به توصیه‌های دکتر احمدی برای ناشران، مجلات و دانشگاه‌ها اشاره کرد و آنها را مفید و کاربردی دانست. وی پیشنهاد کرد که دانشگاه رازی به‌عنوان پیشگام از خود شروع کند و برای مجلات علمی وابسته به دانشگاه، سیاست‌نامه‌ای مشخص در خصوص استفاده از هوش مصنوعی تدوین کند.

پاسخ ارائه دهنده به ناقد اول و دوم

در پی نقد‌ها و پیشنهاد‌های ارائه‌شده توسط دکتر چاله‌چاله و دکتر چقامیرزا در نشست کرسی علمی–ترویجی «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، دکتر احمدی توضیحاتی را در پاسخ به این دیدگاه‌ها مطرح کردند. ایشان در ابتدا تأکید کردند که هدف اصلی این کرسی، پرداختن به دیدگاه‌های متنوع ناشران، پژوهشگران و نهاد‌های علمی در خصوص کاربرد هوش مصنوعی در فرآیند‌های علمی و پژوهشی بوده است، نه بررسی ابعاد فنی یا تکنولوژیک آن. از همین رو، تمرکز ارائه بر جنبه‌های اخلاقی، سیاست‌گذاری و مسائل حوزه نشر علمی قرار داشت.

با این حال، دکتر احمدی ضمن قدردانی از نقد‌های سازنده ناقدان، اعلام کردند که پیشنهاد‌های مطرح‌شده، از جمله افزودن مقدمه‌ای درباره تعریف هوش مصنوعی، پرداختن اجمالی به جنبه‌های فنی و اصلاح ساختار اسلایدها، حتماً در نسخه نهایی اسلاید‌ها و متن کتبی نشست مورد توجه قرار خواهد گرفت. ایشان این نظرات را فرصتی برای بهبود محتوای علمی نشست دانستند و از فضای گفت‌وگوی علمی استقبال کردند.

دکتر احمدی در پاسخ به دیدگاه‌هایی که نقش هوش مصنوعی در تولید دانش را برجسته می‌کردند، تأکید کردند که به باور ایشان، هوش مصنوعی هنوز نمی‌تواند جایگزین نویسنده انسانی باشد. او این فناوری را یک «تسهیل‌گر» در کنار پژوهشگر دانست که می‌تواند فرآیند تحقیق، دسته‌بندی، تولید ایده و نگارش را تسریع کند، اما همچنان عامل انسانی در قضاوت، تحلیل و ارزیابی علمی نقش اصلی را ایفا می‌کند. به گفته دکتر احمدی، استفاده بدون نظارت یا بدون معیار‌های شفاف می‌تواند چالش‌برانگیز باشد.

یکی از محور‌های مهم پاسخ دکتر احمدی، تأکید بر ضرورت تدوین یک بیانیه یا شیوه‌نامه رسمی درباره استفاده از هوش مصنوعی در فعالیت‌های علمی بود. برخلاف دیدگاه دکتر چقامیرزا که با صدور بیانیه مخالفت داشتند، دکتر احمدی بر این باور بودند که باید هرچه سریع‌تر یک سند رسمی، شفاف و مبتنی بر اجماع در این خصوص تهیه شود. به گفته ایشان، نبود چنین سندی باعث سردرگمی در جامعه علمی کشور شده و زمینه‌ساز تفسیر‌های متناقض و رفتار‌های ناهماهنگ خواهد بود.

در ادامه، دکتر احمدی به سیاست‌های ناشران بزرگ بین‌المللی اشاره کردند و گفتند که بسیاری از این نهاد‌ها به‌صراحت اعلام کرده‌اند استفاده از هوش مصنوعی باید به‌طور شفاف در مقالات ذکر شود. از این رو، جامعه علمی ما نیز باید از این روند تبعیت کند و در راستای استاندارد‌های بین‌المللی، چارچوب‌های مشخصی برای اعلام، کنترل و بهره‌برداری صحیح از هوش مصنوعی تدوین کند.

در پایان، دکتر احمدی ضمن ابراز امیدواری نسبت به تداوم این‌گونه نشست‌های علمی، خاطرنشان کردند که گفت‌و‌گو و نقد، لازمه رشد علمی و سیاست‌گذاری مؤثر در مواجهه با فناوری‌های نوین است و امید است دستاورد این نشست منجر به تصمیم‌سازی‌هایی در سطح ملی و دانشگاهی شود.

نقد و پرسش‌های حاضران در جلسه

در ادامه نشست کرسی علمی–ترویجی «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، دکتر غلامی، استادیار گروه الهیات دانشگاه رازی، نیز دیدگاه‌های خود را در این زمینه مطرح کردند. ایشان ضمن تقدیر از دکتر چاله‌چاله به‌دلیل پیشنهاد ارزشمندشان مبنی بر ارسال نتایج این نشست به وزارت علوم، تحقیقات و فناوری، بر ضرورت سیاست‌گذاری آگاهانه و متناسب با شرایط رشته‌های مختلف تأکید کردند.

دکتر غلامی خاطرنشان کرد که نباید از هوش مصنوعی به‌صورت یکسان در همه رشته‌های علمی بهره گرفت، چرا که هر حوزه علمی ویژگی‌ها، روش‌شناسی و اهداف خاص خود را دارد. به‌عنوان نمونه، وی تأکید کرد که در حوزه‌هایی، چون الهیات، مسائل بنیادین و حساس، مانند بحث در مورد وحی، نمی‌تواند با داده‌های تولیدشده توسط هوش مصنوعی – که عمدتاً بر مبنای تحلیل آماری متون و بدون درک معنای عمیق مفاهیم دینی است – مورد بررسی قرار گیرد. ایشان با ذکر مثالی تصریح کردند که استفاده از ابزار هوش مصنوعی در حوزه‌هایی، چون فیزیک پلاسما برای پاسخ به مسائل معرفتی یا وحیانی، از نظر روش علمی و معرفتی قابل‌قبول نیست.

به باور دکتر غلامی، هوش مصنوعی می‌تواند در سطح اطلاعات عمومی مفید باشد و به دانشجویان یا محققان کمک کند تا آگاهی کلی از موضوعات پیدا کنند، اما برای پژوهش‌های عمیق، تخصصی و تحلیلی که نیاز به درک ظریف مفاهیم دارد، نمی‌توان بر آن تکیه کرد. ایشان این فناوری را ابزاری توانمند، اما محدود دانست که باید استفاده از آن با ملاحظات رشته‌ای، اخلاقی و معرفتی همراه باشد.

در مجموع، سخنان دکتر غلامی بر ضرورت تفکیک و تمایز در استفاده از هوش مصنوعی در رشته‌های مختلف علمی تأکید داشت و بر این نکته پافشاری می‌کرد که سیاست‌گذاری در این حوزه باید متناسب با ماهیت معرفت‌شناختی و روش‌شناختی هر حوزه علمی صورت گیرد.

در ادامه نشست علمی یکی از حاضران که عضو هیئت علمی در گروه عمران بود، دیدگاه‌هایی تأمل‌برانگیز و با رویکرد معرفتی درباره جایگاه هوش مصنوعی در دانشگاه‌ها و نظام علمی کشور مطرح کرد.

این عضو هیئت علمی با نگاهی عمیق و فلسفی، بحث خود را با اشاره به نقش تاریخی دانشگاه‌ها در تولید و گسترش دانایی آغاز کرد و تأکید کرد که هر آن‌چه به افزایش دانش و بصیرت کمک می‌کند، باید مورد استقبال قرار گیرد. او با یادآوری دیدگاه‌های افلاطون درباره پیوند فلسفه و هندسه برای درک حقیقت، بر این نکته تأکید کرد که هوش مصنوعی نیز اگر در خدمت توسعه دانایی باشد، می‌تواند ابزاری مشروع و مؤثر در فرآیند‌های علمی باشد. به باور او، دانشگاه باید هوش مصنوعی را در مسیر ارتقای درک، تحلیل و آفرینش علمی به کار گیرد، نه صرفاً به عنوان ابزار فنی یا تجاری.

وی در ادامه، برخلاف دیدگاه دبیر جلسه که گفته بود هوش مصنوعی هرگز نمی‌تواند از هوش انسانی فراتر برود، معتقد بود که در برخی عرصه‌ها، خصوصاً در پردازش اطلاعات و تحلیل الگو‌های پیچیده، هوش مصنوعی توانسته است به مراتب از توان ذهنی انسان پیشی بگیرد. بنابراین، به جای تقلیل جایگاه این فناوری، باید آن را به رسمیت شناخت و به‌درستی هدایت کرد.

ایشان بر ضرورت شفافیت در استفاده از هوش مصنوعی در محیط‌های دانشگاهی تأکید کرد و گفت دانشگاه باید چارچوب‌های روشن، قانونی و معرفتی برای کاربرد این ابزار ایجاد کند. فضای علمی نباید در ابهام باقی بماند و لازم است برای استادان، دانشجویان و پژوهشگران مسیر مشخصی در این زمینه ترسیم شود. از نگاه وی، هر فناوری که به افزایش دانایی و رشد علمی کمک کند، باید در دانشگاه جایگاه داشته باشد و آن‌چه این ویژگی را ندارد، باید کنار گذاشته شود؛ چرا که رسالت دانشگاه چیزی جز جستجوی حقیقت و ارتقای فهم انسانی نیست.

او در پایان یادآور شد که تجارت و توسعه سخت‌افزار‌های هوشمند نقش مهمی در پیشرفت زمینه‌های فنی هوش مصنوعی داشته‌اند، اما در حوزه دانشگاه، باید به وجه معرفتی و تأثیر آن بر ساحت علم و دانایی توجه ویژه داشت. به باور او، علم در خدمت تعالی انسان و تسخیر ناشناخته‌هاست، و هوش مصنوعی تنها در صورتی قابل پذیرش است که در همین مسیر به کار گرفته شود.

در جریان نشست کرسی علمی–ترویجی «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، دکتر جمشیدی، استادیار گروه مدیریت فناوری‌های نوین از دانشگاه رازی، دیدگاه‌هایی مبتنی بر تجربه و واقع‌نگری در مورد ضرورت و چالش‌های استفاده از هوش مصنوعی در نظام آموزش عالی ارائه دادند.

دکتر جمشیدی با اشاره به پیشرفت‌های چشمگیر در فناوری‌های هوشمند، تأکید کرد که همان‌طور که در برخی محیط‌ها ربات‌ها جایگزین انسان شده‌اند، زیرا انسان قادر به فعالیت در آن شرایط نبوده است، در فضای علمی و تحلیلی نیز باید پذیرفت که هوش مصنوعی در برخی زمینه‌ها می‌تواند نقشی اساسی و مکمل ایفا کند. ایشان معتقد بودند که استفاده از این فناوری نه‌تنها اجتناب‌ناپذیر، بلکه در بسیاری از موارد ضروری است.

وی با بیان تجربه‌های خود از تعامل با دانشجویان، تصریح کرد که دانشجویان امروزی، با آشنایی بیشتر و سرعت بالاتر، از هوش مصنوعی استفاده می‌کنند و در برخی موارد حتی بهتر از اساتید از ظرفیت‌های آن بهره می‌برند. این وضعیت، به باور دکتر جمشیدی، لزوم بازبینی سیاست‌های دانشگاه را در نحوه آموزش، ارزشیابی و استفاده از فناوری‌های نوین ضروری می‌سازد.

با این حال، ایشان به یکی از دغدغه‌های اصلی در این حوزه نیز اشاره کرد و آن، افزایش تقلب در فرآیند آموزش با استفاده از هوش مصنوعی بود. وی هشدار داد که ابزار‌های هوشمند در برخی مواقع به‌عنوان ابزاری برای دور زدن یادگیری به‌کار گرفته می‌شوند و این موضوع باید با تدوین آیین‌نامه‌های دقیق و کارآمد کنترل شود.

دکتر جمشیدی همچنین به چرخش در پارادایم اخلاقی اشاره کرد و گفت که مفهوم اخلاق در گذشته، حال و آینده دچار تغییر شده و در تعامل با فناوری‌های نوین مانند هوش مصنوعی، باید اخلاق جدیدی بازتعریف و تبیین شود. یکی از حوزه‌هایی که این تغییرات را به‌شدت تحت‌تأثیر قرار داده، حریم خصوصی است. ایشان با اشاره به چالش‌های جدی در این حوزه، خواستار تدوین دستورالعمل‌های مشخص برای حفاظت از داده‌ها و حقوق کاربران در مواجهه با سیستم‌های هوش مصنوعی شدند.

در بخش دیگری از سخنان خود، دکتر جمشیدی به نقش کلیدی داده‌های بزرگ اشاره کرد و گفت که در شرایطی که با انبوهی از داده‌ها مواجه هستیم، استفاده از هوش مصنوعی برای استنتاج، تحلیل و تصمیم‌گیری نه‌تنها مفید بلکه ضروری است. وی به‌صراحت اعلام کرد که در برخی تحلیل‌ها، هوش مصنوعی از انسان دقیق‌تر و سریع‌تر عمل می‌کند و این واقعیت باید با رویکردی علمی پذیرفته شود، نه با مقاومت سنتی.

در مجموع، دیدگاه‌های دکتر جمشیدی تأکیدی بود بر پذیرش فعال و مدیریت هوشمندانه هوش مصنوعی در ساختار دانشگاهی، با در نظر گرفتن فرصت‌ها و مخاطرات آن و با هدف به‌روزرسانی سیاست‌های آموزشی، اخلاقی و اجرایی در آموزش عالی.

در نشست کرسی علمی–ترویجی دکتر اختری از دانشگاه رازی نیز دیدگاه‌های خود را در خصوص ظرفیت‌ها و الزامات استفاده از هوش مصنوعی در محیط‌های علمی و دانشگاهی ارائه دادند.

ایشان در ابتدای سخنان خود بر ضرورت استفاده همه‌جانبه از هوش مصنوعی تأکید کردند و بیان داشتند که این فناوری می‌تواند در بسیاری از حوزه‌ها، به‌ویژه در تحلیل داده‌های کلان، نقش تعیین‌کننده‌ای ایفا کند. دکتر اختری خاطرنشان کرد که در گذشته تحلیل مجموعه‌های عظیم داده نیازمند صرف زمان، نیروی انسانی و منابع زیادی بود، اما امروز، با کمک ابزار‌های هوش مصنوعی، می‌توان در مدت زمانی بسیار کوتاه به نتایجی دقیق و قابل استناد دست یافت.

با این حال، دکتر اختری بر این نکته مهم نیز تأکید کرد که در کنار استفاده گسترده از هوش مصنوعی، وجود ناظر انسانی ضروری است. وی گفت که اتکای مطلق به هوش مصنوعی، بدون بررسی و قضاوت انسانی، می‌تواند پیامد‌های نادیده‌ای در پی داشته باشد. از این رو، باید بین بهره‌گیری از توان تحلیلی هوش مصنوعی و مسئولیت‌پذیری انسانی تعادل برقرار شود.

یکی دیگر از نکات کلیدی مطرح‌شده توسط دکتر اختری، لزوم شفافیت در استفاده از هوش مصنوعی در فرآیند‌های علمی و آموزشی بود. به گفته ایشان، باید مشخص باشد که در کدام بخش‌ها از این ابزار استفاده شده و نحوه تأثیر آن بر نتایج پژوهش یا فرآیند یادگیری چگونه بوده است. شفاف‌سازی در این زمینه می‌تواند به افزایش اعتماد و صحت علمی کمک کند.

در پایان، دکتر اختری به مسئله استفاده نامحدود و بدون چارچوب از هوش مصنوعی نیز اشاره کرد و هشدار داد که اگر استفاده از این فناوری بدون کنترل، دستورالعمل و مرز‌های اخلاقی مشخص صورت گیرد، ممکن است موجب بی‌اعتمادی، تقلب یا دستکاری علمی شود. ایشان پیشنهاد کردند که سیاست‌گذاران دانشگاهی و نهاد‌های علمی، در کنار بهره‌گیری حداکثری از مزایای این فناوری، باید دستورالعمل‌ها و محدودیت‌هایی معقول و دقیق برای کاربرد آن تدوین کنند.

در مجموع، سخنان دکتر اختری تأکیدی بود بر رویکرد متوازن: بهره‌گیری گسترده و هوشمندانه از ظرفیت‌های هوش مصنوعی، در کنار نهادینه‌سازی شفافیت و نظارت انسانی در فضای دانشگاهی.

خانم صفری از طریق فضای مجازی دو پرسش فنی مهم در زمینه هوش مصنوعی مطرح کردند که توجه حاضران را به خود جلب کرد. با توجه به تخصصی بودن محتوای این پرسش‌ها، دکتر احمدی، ارائه‌دهنده جلسه، از دکتر عبدالله چاله‌چاله، دانشیار گروه مهندسی کامپیوتر دانشگاه رازی، دعوت کردند تا به این سؤالات پاسخ دهند.

پرسش نخست خانم صفری به موضوع تفاوت میان نویسنده انسانی و نویسنده هوش مصنوعی اختصاص داشت. دکتر چاله‌چاله در پاسخ به این سؤال توضیح دادند که هوش مصنوعی برخلاف انسان، فاقد شعور، نیت، خلاقیت اصیل و مسئولیت‌پذیری است. به گفته ایشان، آنچه هوش مصنوعی تولید می‌کند نتیجه تحلیل آماری و یادگیری از داده‌های پیشین است، در حالی که نویسنده انسانی با تکیه بر تجربه، دانش، تحلیل مفهومی و ارزش‌گذاری‌های اخلاقی دست به نگارش می‌زند. بنابراین، نویسنده واقعی انسانی است که مسیر پژوهش را هدایت می‌کند و از هوش مصنوعی فقط به‌عنوان ابزار کمک‌کار بهره می‌برد.

پرسش دوم خانم صفری ناظر به شفافیت ابزار‌های تشخیص استفاده از هوش مصنوعی بود؛ اینکه آیا می‌توان به این ابزار‌ها اعتماد کامل داشت، در حالی که خود آنها نیز مبتنی بر هوش مصنوعی هستند. دکتر چاله‌چاله در پاسخ با تأکید بر اینکه این ابزار‌ها همچنان در حال توسعه و به‌روزرسانی هستند، توضیح دادند که گرچه عملکرد آنها در بسیاری موارد قابل قبول است، اما همچنان با خطا‌هایی همراه هستند و نمی‌توان آنها را معیار نهایی و بی‌چون‌وچرا دانست. وی افزود که استفاده از این ابزار‌ها باید همواره با نظارت انسانی همراه باشد تا از بروز اشتباهات و سوگیری‌های احتمالی جلوگیری شود.

این بخش از نشست، با طرح سؤالات دقیق و پاسخ‌های تخصصی، به بررسی جنبه‌های فنی و اخلاقی استفاده از هوش مصنوعی در نگارش علمی و ابزار‌های تشخیصی آن پرداخت و نشان داد که برای رسیدن به یک الگوی اخلاقی و دقیق در استفاده از هوش مصنوعی، نیاز به گفت‌وگوی مستمر میان متخصصان حوزه‌های مختلف وجود دارد.

پاسخ ارائه دهنده به حاضران

در پایان نشست کرسی علمی–ترویجی «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، دکتر احمدی، ارائه‌دهنده اصلی این جلسه، ضمن جمع‌بندی مباحث و پاسخ به دیدگاه‌های ناقدان و حاضران، بر همگرایی و نزدیکی دیدگاه‌ها میان ناشران، پژوهشگران و اساتید تأکید کرد.

وی خاطرنشان کرد که آن‌چه در جریان این نشست روشن شد، وجود اجماع نسبی میان فعالان علمی درباره مشروعیت و ضرورت استفاده از هوش مصنوعی در پژوهش‌های علمی است. دکتر احمدی گفت: اکنون کمتر کسی با اصل استفاده از هوش مصنوعی مخالف است، مسئله اصلی شیوه و چارچوب استفاده از آن است.

دکتر احمدی با اشاره به محور‌های مهم مطرح‌شده در جلسه، بر شفافیت به‌عنوان اصل اساسی در استفاده از هوش مصنوعی تأکید کرد و گفت باید به‌صراحت در فرایند پژوهش مشخص کنیم که در کدام مراحل از ابزار‌های هوش مصنوعی بهره برده‌ایم. وی افزود که مجلات و ناشران علمی نیز باید به این اصل پایبند باشند و از نویسندگان بخواهند موارد استفاده از هوش مصنوعی را به‌وضوح اعلام کنند. او تأکید کرد که شفاف‌سازی از سوءاستفاده و تقلب جلوگیری می‌کند و به ارتقاء اعتبار علمی کمک خواهد کرد.

در بخشی دیگر از سخنان خود، دکتر احمدی به ترس بی‌مورد از استفاده از هوش مصنوعی اشاره کرد و گفت که نباید این فناوری را به چشم تهدید نگاه کرد، بلکه با رعایت اصول اخلاقی و علمی می‌توان از آن به‌عنوان یک ابزار تسهیل‌گر و توانمندساز بهره گرفت. او خاطرنشان کرد: هوش مصنوعی نمی‌تواند جای پژوهشگر را بگیرد، اما می‌تواند فرآیند پژوهش را سریع‌تر و گسترده‌تر کند.

دکتر احمدی همچنین بر ضرورت تدوین دستورالعمل‌ها و آیین‌نامه‌های مشخص و قابل اجرا در این زمینه تأکید کرد و افزود که برای رفع ابهام‌ها و تعیین حدود و ثغور اخلاقی استفاده از هوش مصنوعی، باید سیاست‌گذاری روشن و یکپارچه در سطح دانشگاه‌ها، وزارت علوم و جامعه علمی شکل گیرد.

در پایان، وی پیشنهاد کرد که برگزاری نشست‌های مشابه به‌صورت منظم ادامه پیدا کند تا ابعاد مختلف و جزییات موضوع بیش از پیش روشن شود و در نهایت، جامعه علمی کشور بتواند بدون نگرانی و با رعایت اصول اخلاق پژوهش، از این فناوری نوظهور بهره‌مند گردد.

جمع بندی مدیر جلسه

در پایان نشست علمی–ترویجی با عنوان «تحلیل تعارضات اخلاقی به‌کارگیری هوش مصنوعی در پژوهش‌های علمی»، مدیر جلسه سرکار خانم دکتر رفیعی با ارائه جمع‌بندی‌ای جامع، بر اهمیت تداوم چنین نشست‌هایی تأکید کرد. وی اظهار داشت که برگزاری این کرسی‌ها نه تنها به تبیین ابعاد اخلاقی، علمی و فنی هوش مصنوعی در محیط‌های دانشگاهی کمک می‌کند، بلکه زمینه را برای هم‌افزایی بین رشته‌ای و طرح دیدگاه‌های متنوع فراهم می‌سازد.

مدیر جلسه با اشاره به نکات مطرح‌شده در طول نشست، لزوم اصلاح و تکمیل موارد ارائه‌شده در متن اصلی این کرسی را یادآور شد تا به‌صورت دقیق‌تر، جامع‌تر و متناسب با نقد‌های سازنده حاضران و ناقدان، نسخه نهایی آن آماده گردد. وی همچنین تأکید کرد که گزارش کامل این نشست باید به مسئولان دانشگاه رازی و در صورت امکان به سایر دانشگاه‌ها نیز ارسال شود تا بتوان از نتایج آن در سیاست‌گذاری‌ها و تدوین آیین‌نامه‌های مرتبط با هوش مصنوعی بهره برد.

از دیگر نکات برجسته در سخنان جمع‌بندی‌کننده، دعوت از محققان و اساتید دانشگاهی برای ورود فعال به این حوزه بود. وی خاطرنشان کرد که موضوع هوش مصنوعی در پژوهش، پدیده‌ای نوظهور، اما بسیار مهم است که نیازمند توجه دقیق و مشارکت فعال اندیشمندان از رشته‌های مختلف دانشگاهی می‌باشد.

در پایان، مدیر جلسه از همه شرکت‌کنندگان، سخنرانان، ناقدان، و حاضران که در شکل‌گیری این گفت‌وگوی علمی مؤثر نقش داشتند، صمیمانه تشکر کرد. همچنین، از دکتر بهرامی مدیر کرسی¬های نظریه پردازی دانشگاه رازی و همچنین از سرکار خانم دکتر رستمی به دلیل هماهنگی و مدیریت علمی این نشست قدردانی ویژه‌ای به عمل آورد. این جمع‌بندی رسمی، بر لزوم استمرار چنین کرسی‌هایی برای پیشبرد اخلاق و سیاست‌گذاری علمی در حوزه هوش مصنوعی تأکید داشت.

آخرین اخبار