فناوری هوش مصنوعی (AI) اخیراً درگیر برخی مسائل حقوقی و اخلاقی شده که معضلاتی را برای حوزههای مختلف از جمله بخش خیریه پدید آورده است. انتظار میرود رفع این مشکلات سالها به طول انجامد و احتمالاً طی این مدت با گرفتاریهای مختلفی مواجه خواهیم بود.
براین اساس دستورالعمل جدیدی در مورد مبانی اخلاقی هوش مصنوعی در بخش خیریه توسط مؤسسه چریتی اکسلنس (Charity Excellence) تدوین شده است. این دستورالعمل با عنوان «چارچوب اخلاق و حاکمیت هوش مصنوعی در بخش خیریه» میکوشد با ارائه یک چارچوب ساده، کاربردی و انعطافپذیر برای مدیریت چالشهای اخلاقی، به ترویج استفاده مسئولانه سازمانهای مردمنهاد از هوش مصنوعی کمک کند.
چارچوب اخلاق و حاکمیت هوش مصنوعی در خیریهها
اصول اخلاق و حاکمیت هوش مصنوعی یک حوزه بسیار پیچیده توأم با رشد و تکامل سریع است و این در شرایطی است که همگی ما در آینده نزدیک مستقیماً درگیر استفاده از هوش مصنوعی خواهیم بود یا اینکه کارهایمان به نوعی تحت تأثیر سیستمهای مجهز به این فناوری و فرصتها و تهدیدات بزرگ ناشی از آن خواهد بود.
«چریتی اکسلنس» به عنوان بزرگترین جامعه خیریه انگلیس با تدوین دستورالعمل اخلاقی هوش مصنوعی به خیریهها کمک میکند تا به تهدیدات فوق واکنش نشان دهند.
اهمیت اخلاق و حاکمیت هوش مصنوعی
در تاریخ 23 مارس، گروهی از کارشناسان برجسته هوش مصنوعی جهان خواستار این شدند که توسعه نسل بعدی سیستمهای قویتر از «ChatGPT4» برای 6 ماه به تعویق بیافتد. این کارشناسان هشدار دادند که:
«شرکتهای هوش مصنوعی درگیر یک مسابقه خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر هستند که هیچکس - حتی سازندگان آنها – نمیتواند آن را درک، پیشبینی یا کنترل کند.»
مشکل اینجاست که این فقط یک مورد از مجموعه مسائل سیستمهای جدید هوش مصنوعی مولد است؛ سیستمهایی که بسیار تحولآفرین هستند، غولهای فناوری میلیاردها پوند در آنها سرمایهگذاری میکنند و سود بسیار چشمگیری به همراه دارند. اما نگرانیهای بسیار جدی در این رابطه وجود دارد. حتی مدیرعامل شرکت OpenAI (سازنده ChatGPT) عقیده دارد که توسعه این فناوری باید همگام با توسعه مبانی اخلاقی و حقوقی باشد.
سند مقررات هوش مصنوعی دولت انگلیس، پیشنهادات خود در زمینه پیادهسازی چارچوبی برای ساماندهی و نظارت بر هوش مصنوعی را ارائه کرده است. در حال حاضر این سند در شرف مشورت و رایزنی است، اما حدس زده میشود که مقررات جدید احتمالاً رویکرد ظریفی برای ترویج رشد اقتصادی خواهد بود.
با این حال هیچ اختلافنظری در رابطه با گستردگی و سرعت تأثیرات هوش مصنوعی یا چالشهای عظیمی که این پدیده ایجاد میکند، وجود ندارد. خیریهها باید همین الان دست به اقداماتی بزنند تا مطمئن شوند که استفادهی آنها از هوش مصنوعی منصفانه، قانونی و ایمن است. «چارچوب اخلاق و حاکمیت هوش مصنوعی» ابزاری را برای انجام این کار در اختیار مؤسسات مردمنهاد قرار میدهد.
خطرات هوش مصنوعی برای خیریهها
ارزیابی ریسک (risk assessment) جهت کمک به ایجاد چارچوب فوق انجام میشود. گمان میرود که تعدادی خطر کوتاهمدت قبلاً اتفاق افتاده یا در آینده بسیار نزدیک رخ خواهد داد. چند خطر میانمدت نیز در راه است که اکنون باید به آنها پاسخ داده شود و البته خوشبختانه چند سال فاصله با خطرات بلندمدتی چون «Paperclip Maximiser» وجود دارد، البته اگر اتفاق بیافتند.
خطرات کوتاه مدت هوش مصنوعی
1. حریم خصوصی (Privacy)
- تأثیرگذاری بر جهان: تنظیمات پیشفرض ChatGPT این است که دادهها را به اشتراک بگذارد مگر آنکه اشتراکگذاری داده غیرفعال شده باشد، بنابراین هر نوع اطلاعات حساس شخصی یا مالی به طور خودکار به اشتراک گذاشته میشود.
- تأثیرگذاری بر سازمانهای مردمنهاد: مدلهای زبانی بزرگ (LLM) اقدام به جمعآوری دادهها از سراسر اینترنت از جمله وبسایتهای خیریه کرده و آپلود محتوا را برای همه قابل دسترسی و استفاده میکنند. هرچند این قضیه باعث «کشف و دیده شدن» بیشتر خیریه میشود، اما در عین حال ممکن است دادهها بدون رضایت آن به اشتراک گذاشته شود و محتوا جهت سوء استفادههایی چون تصاویر کودکان در دسترس قرار گیرد.
2. نشر اطلاعات غلط (Disinformation)
- تأثیرگذاری بر جهان: توانایی هوش مصنوعی برای نوشتن محتوای بسیار نافذ و قابل باور به بازیگران شرور امکان میدهد اطلاعات نادرست و دروغ را نشر دهند. این در حالی است که محافظهای ایمنی مصون از خطا نیستند و ممکن است توسط این بازیگران دور زده شوند (پدیده جیلبریک).
برای مطالعه
- تأثیرگذاری بر سازمانهای مردمنهاد: جلب اعتماد عمومی از جمله نکات اساسی برای خیریههایی است که از تصاویر هوش مصنوعی استفاده میکنند، اما پنهانکاری در این خصوص و به بیان کلیترT نشر اطلاعات نادرست میتواند شدیداً به این اعتماد خدشه وارد کند. دستِ کم یک خیریه بزرگ، قبلاً از تصاویر هوش مصنوعی استفاده کرده، بدون آنکه درباره این عمل شفافسازی کرده باشد.
3. چارچوبهای نظارتی و قانونی (Regulatory Frameworks)
کپیرایت (Copyright) از جمله موضوعات بسیار مهم است، اما فناوری غالباً جلوتر از قوانین و مقررات در این زمینه حرکت کرده است. اتحادیه اروپا و آمریکا اقداماتی را در این خصوص انجام دادهاند. سند دولت انگلیس درباره هوش مصنوعی با نگاهی به رویکرد حامی نوآوری و تمرکز بر ایجاد منافع اقتصادی روز 23 مارس منتشر شد. دفتر کمیساریای اطلاعات انگلیس (ICI) نیز راهنمای بهروز هوش مصنوعی را در همین روز صادر کرد.
4. تبعیض (Discrimination)
هوش مصنوعی به خودی خود تبعیضآمیز نیست، اما از دادههایمان استفاده کرده و توسط ما آموزش داده میشود، بنابراین بازتابی از کاستیها و نارساییهای جامعه است که به احتمال زیاد به این زودیها برطرف نخواهد شد. خطرات چشمگیر تبعیض هم در خود دادهها و هم در نحوه آموزش آنها نهفته است. به علاوه از آنجا که بخش عمده هوش مصنوعی شبیه یک «جعبه سیاه» ناشناخته است، حتی افرادی که آن را میسازند واقعاً نمیدانند چه کار میکنند. موارد و نمونههایی از سیاهپوستان و زنان وجود دارند که به واسطه هوش مصنوعی مورد تبعیض قرار گرفتهاند.
5. کلاهبرداری (Scam)
- تأثیرگذاری بر جهان: شناسایی کلاهبرداران معمولاً بسیار ساده است، اما استفاده از هوش مصنوعی این امر را بسیار پیچیده کرده است. در حال حاضر خطرات «کلاهبرداری از خیریه» وجود دارد که به اعتماد عمومی و تمایل دیگران برای اهدای کمک مالی لطمه وارد میکند.
- تأثیرگذاری بر سازمانهای مردمنهاد: این خطر وجود دارد که ذینفعان آسیبپذیر حتی بیش از مقدار فعلی آسیب ببینند و خطرات بزرگتر کلاهبرداری در کمین خیریهها باشد.
خطرات میانمدت مدت هوش مصنوعی - 2024
1. فرسودگی (Obsolescence)
- تأثیرگذاری بر جهان: سازمانهایی که از واکنش به این فناوری عاجز هستند و همچنان به خدمات یا مدلهایی وفادار ماندهاند که دیگر افراد نیازی به آنها ندارند یا اینکه میتوانند با استفاده از هوش مصنوعی به طور رایگان، مؤثرتر یا راحتتر به این خدمات دسترسی پیدا کنند. قطعاً این سازمانها بازنده هستند.
- تأثیرگذاری بر سازمانهای مردمنهاد: ابعاد این خطر برای خیریههای ملی و بزرگتر شاید بیشتر باشد، چونکه احتمال کمتری میرود که آنها دارای فعالیتهای بسیار تخصصی یا مکانمحور باشند که ارزش استفاده از هوش مصنوعی را داشته باشد.
2. از دست رفتن مداخله انسانی (Loss Of Human Agency)
- تأثیرگذاری بر جهان: میتوان مشاغلی را برای حفظ مداخله انسانی طراحی کرد یا اینکه برای کاهش هزینهها مشاغل را تعدیل کرد. اگر هدف صرفاً کاهش هزینهها باشد، خطر از دست رفتن مشاغل و همچنین تأثیر سلامت روانی بر افرادی که در کار باقی میمانند، احساس میشود.
- تأثیرگذاری بر سازمانهای مردمنهاد: هوش مصنوعی، فرصت بزرگی را برای دستیابی به اهداف بیشتر در اختیار خیریهها قرار میدهد، اما در عین حال افراد بزرگترین دارایی ما هستند. از بین بردن مشاغل خیریه شاید مقداری در پول و هزینهها صرفهجویی کند اما خسارتهای بسیار بیشتری از لحاظ تأثیرگذاری بر جامعه و افراد به همراه خواهد داشت.
3. تفویض مسئولیت اخلاقی (Moral Outsourcing)
این اصطلاح توسط رومان چودهری (Rumman Chowdhury) ابداع شده که طبق آن پس از اعمال منطق ادراک و انتخاب برای هوش مصنوعی، ماشین مقصر شناخته شده و انسان از هرگونه خطای احتمالی مبراست. به این ترتیب افرادی که هوش مصنوعی را ایجاد کردهاند، به جای آنکه مسئولیت کار را برعهده بگیرند، بار آن را بر روی دوش محصولاتی میاندازند که خود ساختهاند. اما مشکلات مربوط به هوش مصنوعی به دلیل مجموعه دادههایی است که خود انسان در انتخاب، نحوه آموزش و استفاده از آنها نقش داشته است و بنابراین باید خود (انسان) را صاحب مشکل بدانیم.
4. کاهش سطح خلاقیت (Dumbing Down Creativity)
هوش مصنوعی در حال حاضر برای ایجاد محتوای هنری و اخبار ساده استفاده میشود، اما اگر گسترش پیدا کند ممکن است بر هنرمندان انسانی تأثیر بگذارد و کیفیت اخبار و سایر محتوا را تا حدی تقلیل دهد که به سطح «موزک سوپرمارکت» هوش مصنوعی برسد. شاید هنری وجود داشته باشد، اما جادوی خلاقیت از بین میرود.
خطرات بلندمدت مدت هوش مصنوعی
1. خندق دیجیتال (Digital Moat)
اصطلاح خندق اقتصادی (Economic moat) توسط وارن بافت (Warren Buffet) به شرکتهایی اطلاق شد که با تسلط فراوان بر مزیتهای رقابتی بازار، دیگران را از هرگونه رقابت محروم میکنند. این خطر وجود دارد که تعداد قلیلی از خیریههای بسیار بزرگ که در حال حاضر بخش عمده درآمد حاصل از جمعآوری کمکهای مالی را دریافت میکنند از تخصص بالای دیجیتال خود برای تسلط بازاری هرچه بیشتر به زیان خیریههای کوچکتر استفاده کنند. استراتژی پلههای ترقی هوش مصنوعی تا حدی در واکنش به این خطر تدوین شده است.
2. حداکثرساز گیره کاغذ (The Paperclip Maximiser)
در سال 2003، طی یک آزمایش فکری، کامپیوتری تلاش کرد بشریت را از بین ببرد، در حالی که هدف اصلی آن فقط به حداکثر رساندن ساخت گیرههای کاغذ بود! بدیهی است که این معضل توجه زیاد رسانهها را به خود جلب میکند، اما تصور نمیکنیم که تا زمان دستیابی به هوش مصنوعی عمومی (AGI) - تواناییهایی شناختی شبیه انسان - خطر بزرگی تلقی شود. هیچکس خبر ندارد، اما فکر میکنیم که احتمالاً سالها تا آن زمان باقی مانده و شاید فقط تا حدی قابل دستیابی باشد.
چارچوب اخلاق و حاکمیت هوش مصنوعی خیریهها
چارچوب فوق یک ابزار ساده، کاربردی و انعطافپذیر برای هریک از افراد درگیر با هوش مصنوعی در بخش خیریه است. میتوانید موارد نظر را متناسب با نیازهای خود اضافه، اصلاح یا حذف کنید. قبل از آغاز کار پیشنهاد میشود مقاله والاستریت ژورنال با عنوان 25 سؤالی که باید از خود درباره هوش مصنوعی بپرسید را مطالعه کنید.
نحوه استفاده از چارچوب حاکمیت هوش مصنوعی
خیریهها و مؤسسات مردمنهاد میتوانند از این چارچوب به منظور زیر استفاده کنند:
- ایجاد یک چارچوب هوش مصنوعی برای مؤسسه مردمنهاد و/یا
- نهادینهسازی جنبههای مربوطه در رویهها و دستورالعملهای جاری از قبیل:
- حفاظت از دادهها، برابری، تنوع و شمولیت (EDI) و سیاستهای اخلاقی جمعآوری کمک مالی
در خصوص افرادی که هوش مصنوعی را طراحی، راهاندازی یا تأمین بودجه میکنند، میتوان این چارچوب را به RFPها، قراردادها و موافقتنامههای کمک هزینه مالی یا مواردی از این دست پیوست کرد.
- مقدمه
این چارچوب جهت اطمینان از کاربرد اخلاقی و قانونی هوش مصنوعی (AI) در مؤسسه خیریه با رعایت استانداردهای بالای انصاف، پاسخگویی و مسئولیتپذیری، شفافیت، حریم خصوصی و عدم تبعیض در توسعه، اجرا و نظارت بر سیستمهای هوش مصنوعی مورد استفاده ایجاد شده است.
- دامنه کاربرد
این خط مشی برای همه متولیان، داوطبان، کارکنان، پیمانکاران و افراد ثالث که به نمایندگی از خیریه مشغول به فعالیت هستند، اعمال میشود. الزامات آن در صورت نیاز باید در سایر سیاستها و رویهها، موافقتنامهها و قراردادها گنجانده شود.
- تعریف هوش مصنوعی
هوش مصنوعی به توانایی ماشین یا نرمافزار برای انجام وظایفی که معمولاً به هوش انسانی نیاز دارند، اطلاق میشود. سیستمهای هوش مصنوعی میتوانند دادهها را پردازش کنند، از آنها بیاموزند و براساس آن دادهها تصمیمگیری یا پردازش کنند. هوش مصنوعی، حوزه گستردهای است که انواع مختلف سیستمها و رویکردهای هوش ماشینی از جمله هوش مصنوعی قاعدهمند، یادگیری ماشین، شبکههای عصبی، پردازش زبان طبیعی و رباتیک را دربرمیگیرد.
- نظارت و کنترل انسانی
سیستمهای هوش مصنوعی از نظارت شایسته انسانی برخوردار هستند و انسانها مسئول همه تصمیمات نهایی در مورد خروجی خود تلقی میشوند.
- مدیریت
خیریه هر نوع دستورالعمل لازم را در خصوص موارد زیر تدوین خواهد کرد:
- جمعآوری، استفاده و ذخیرهسازی دادهها از جمله یک استراتژی مدیریت داده که نحوه کنترل و محافظ از دادههای شخصی را مشخص کند.
- اطمینان از پاسخگویی در قبال تصمیمات اتخاذشده توسط سیستمهای هوش مصنوعی که شاید اقداماتی چون فرآیندهای حسابرسی و گزارشدهی را شامل شود.
- استفاده از الگوریتمها در تصمیمگیری، از جمله اقداماتی که برای اطمینان از منصفانه و بیطرفانه بودن این الگوریتمها انجام خواهد شد.
خیریه تضمین خواهد کرد که:
- افراد مسئول توسعه، اجرا یا نظارت بر هوش مصنوعی دارای مهارت و تجربه لازم هستند تا این اطمینان حاصل شود که سیاست حاکمیت هوش مصنوعی از انطباق مستمر با خط مشی برخوردار است.
- هرگونه آموزش، برنامههای اطلاعرسانی و/یا دستورالعملهای لازم جهت حمایت از این امر فراهم میشود.
- حاکمیت هوش مصنوعی در سایر سیاستها و رویهها، قراردادها، موافقتنامهها و سایر اسناد نظیر شرح وظایف نیز نهادینه شده است.
- افراد مسئول یا درگیر در هوش مصنوعی به اجرای خط مشی و مسئولیتهای خود واقف بوده و در این زمینه پاسخگو خواهند بود.
مدیریت ریسک
تجزیه و تحلیل ریسک شامل موارد زیر است:
- هر گروه خاص اعم از افراد، گروهها و به طور کل جامعه یا محیط زیست که در معرض خطر باشد.
- سایر موارد کاربرد قابل پیشبینی فناوری از جمله سوء استفادههای تصادفی یا مخرب
- انحرافی که در داخل سیستم ایجاد یا تقویت شده است.
خطرات به وضوح شناسایی و سنجیده شدهاند و اقدامات پیشگیرانه/کاهنده تضمین میکند که سطح ریسک و خطر در محدودههای قابل قبول باقی خواهد ماند.
حریم خصوصی و حفاظت از دادههای هوش مصنوعی
خیریه با انجام «ارزیابی تأثیرات حفاظت از داده» (DPIA) برای هوش مصنوعی، هرگونه تغییرات لازم را در خط مشی و رویههای خود اعمال میکند. در این راستا تدابیر زیر به کار گرفته خواهد شد:
- استفاده از مجموعه دادههای دقیق، منصفانه و معرف جامعه برای اطمینان از شمولیت آنها.
- وارد نکردن دادههای شخصی در مجموعه دادهها یا دست کم هویتزدایی و شبه ناشناس کردن آنها.
- اطمینان از اینکه افراد مطلع شوند دادههای شخصی و حساس نباید در سیستمهای هوش مصنوعی وارد شود.
- صرفنظر کردن از اشتراکگذاری دادههای ChatGPT و/یا DALL-E با استفاده از این سند گوگل.
- در صورت استفاده از یک API از اشتراکگذاری داده خودداری کنید.
- یا خاموش کردن اشتراکگذاری دادهها در تنظیمات ChatGPT (گوشه سمت چپ پایین صفحه)، دکمه آن خیلی معلوم نیست.
- اظهار استفاده از هوش مصنوعی در بیانیههای حریم خصوصی خیریه تا کاربران بدانند که:
- چه زمانی دادههای آنها توسط هوش مصنوعی استفاده میشود.
- آیا هوش مصنوعی تصمیماتی را در قبال آنها میگیرد یا خیر و؛
- اگر چنین است، این تصمیمات چیست؟
خیریه از راهنمای ICO در مورد هوش مصنوعی و حفاظت از دادهها آگاه است و هرگونه الزامات دیگر را در خط مشی و رویههای خود منعکس کرده است.
مدیریت تغییر و طراحی شغل
- خیریه از کارکنان خود در زمینه انطباق با تغییراتی که هوش مصنوعی در سازمان به بار میآورد، حمایت میکند.
- خیریه، توسعه مهارتها را برای افراد ممکن میکند تا بتوانند از هوش مصنوعی برای تحقق هر چه بیشتر اهداف و کارهای خارقالعادهای که انجام میدهند، استفاده کنند.
- خیریه هنگام طراحی وظایف و رویههای کاری، نیازهای کارکنان از جمله نیاز به مداخله انسانی را لحاظ میکند.
ارزیابی تأثیر هوش مصنوعی بر مشاغل بخش خیریه و آنچه خیریهها باید در زمینه تلفیق هوش مصنوعی با وظایف و رویههای خود انجام دهند، در این مقاله آورده شده است.
ذینفعان و سایر افراد آسیبپذیر
- خیریه متعهد به ارتباط و تعامل واقعی با ذینفعان خود است تا اطمینان یابد که هوش مصنوعی با نیازها و ارزشهای آنها همسوا ست.
- خیریه، هرگونه محرومسازی یا آسیبرسانی به افراد براساس هویت آنها را در تجزیه و تحلیل ریسک لحاظ میکند.
- خیریه، گامهای معقولی را برای پیشگیری یا به حداقل رساندن هرگونه محرومیت یا آسیبرسانی برداشته و به طور شفاف این موضوع را اعلام میکند.
- خیریه اطمینان میدهد که محتوای تولیدی:
- به شأن و کرامت افراد احترام میگذارد.
- آنها را به شکلی که مایل هستند، نشان میدهد.
- خیریه، سیستمها و محتوای خود را تا حد امکان در دسترس دیگران قرار میدهد.
- خیریه تا جایی که به طور منطقی امکانپذیر باشد، تدابیر زیر را به کار خواهد گرفت:
- استفاده از مجموعه دادههای دقیق، منصفانه و معرف جامعه برای اطمینان از شمولیت آنها.
- وارد نکردن دادههای شخصی در مجموعه دادهها یا دست کم هویتزدایی و شبه ناشناس کردن آنها.
- اظهار استفاده از هوش مصنوعی در بیانیههای حریم خصوصی خیریه تا کاربران بدانند که:
- چه زمانی دادههای آنها توسط هوش مصنوعی استفاده میشود.
- آیا هوش مصنوعی تصمیماتی را در قبال آنها میگیرد یا خیر و
- اگر چنین است، این تصمیمات چیست؟
اخلاق هوش مصنوعی
- همه اقدامات منطقی برای شناسایی هرگونه انحراف در سیستم از جمله دادههای منبعی که ممکن است استفاده کند، انجام شده است.
- انحراف سیستمی ریشهکن شده یا تا حدی که در سطح قابل قبولی از خطر قرار بگیرد، کاهش یافته است.
- خیریه درباره هر نوع انحراف سیستمی و نحوه مدیریت آن شفاف و باز عمل میکند.
- در زمان استفاده از هوش مصنوعی برای تولید محتوا، بررسیها و تدابیر لازم برای اطمینان از موارد زیر وجود دارد:
- خیریه شفاف و آشکار اعلام میکند که محتوا توسط هوش مصنوعی ایجاد شده است.
- اضافه کردن یک پاورقی به هر نوع متن و/یا برچسبگذاری تصاویر با عناوینی چون «اصیل و معتبر»، «تولید نسبی توسط هوش مصنوعی» یا «تولید کامل توسط هوش مصنوعی» میتواند در دستورکار قرار گیرد.
- خیریه شفاف و آشکار اعلام میکند که محتوا توسط هوش مصنوعی ایجاد شده است.
- محتوای واقعی و غیرواقعی به شکل آشکار و عیان ظاهر شده یا به وضوح تصریح میشود.
- هوش مصنوعی برای اهداف غیرمجاز استفاده نمیشود.
- خیریه مراتب قدردانی شایسته خود را از مطالب تولیدی دیگران که مورد استفاده قرار داده یا برای تولید محتوا استفاده میشود، اعلام میکند.
- جهت به حداقل رساندن احتمال خطا و عبارات مغرضانه/ افتراآمیز و غیره، تعدیل محتوای مناسب توسط انسان صورت میگیرد.
لزوم پیروی از قوانین
خیریه اطمینان حاصل میکند که:
- مجوز کپیرایت افرادی که محتوای تولیدی آنها را مورد استفاده قرار داده، کسب کرده است یا اینکه؛
- محتوا در دسته «استفاده منصفانه»، مجوز دولت باز (OGL) یا سایر دستهبندیهای استفاده رایگان قرار دارد.
- خیریه:
- به طور آگاهانه از هر نوع محتوای آنلاین نظیر حسابهای رسانه اجتماعی یا گالریهای آنلاین که برچسب «Do Not AI» یا مشابه آن خوردهاند، استفاده نمیکند.
- تأثیرگذاری منفی بر حقوق و/یا آزادیهای قانونی افراد یا گروهها ندارد.
- از قانون حفاظت از دادهها (Data Protection Act) به ویژه برای محافظت از اطلاعات شخصی و حساس پیروی میکند.
- راهنمای ICO در مورد هوش مصنوعی و حفاظت از دادهها در خط مشی و رویههای خیریه منعکس شده است.
پیشنهادنویسی (Bid Writing) و جمعآوری کمکهای مالی
یکی از وجوه خاص اخلاق هوش مصنوعی در جمعآوری کمکهای مالی، پیشنهادنویسی (Bid Writing) برای دریافت کمکهزینههاست. هوش مصنوعی این قدرت را دارد که به ایجاد فرصتهای برابر و عادلانه در فرآیندهای توزیع کمکهزینه (گرنت) کمک کند. این فرآیندها گاهی اوقات منجر به این میشوند که خیریههای کوچک درآمد کمتری را کسب کنند و معمولاً خطر چشمگیر محرومسازی برخی خیریهها و ناعادلانه کردن بیشتر فرآیند وجود دارد.
اینکه باید به خیریه کمکهزینهای اهدا شود یا خیر، بستگی به این دارد که نیازهای برآوردهنشده آن تا چه حد بزرگ است و به چه نحوی میتواند آنها را برآورده کنید. با این حال دریافت یا عدم دریافت کمک هزینه تا حد زیادی به میزان شناخت خیریه از پیشنهادنویسی، میزان مهارت در نوشتن پیشنهاد و اغلب مقدار شناخت آن از سرمایهگذار (اهداکننده کمکهزینه) بستگی دارد. اینها دو قضیه کاملاً متفاوت هستند که سیستم را برای گروههای کوچک و به حاشیهراندهشده ناعادلانه و برای گرنتدهندگان کماثر میکنند.
بیشتر بخوانید
در نتیجه ابزار پیشنهادنویس هوش مصنوعی «چریتی اکسلنس» مجموعهای از سؤالات را از افراد پرسیده و سپس از ChatGPT برای تبدیل آن به یک سند پشتیبانی مکتوب که حاوی اطلاعات مهم و مورد نیاز یک گرنتدهنده برای تصمیمگیری است، استفاده کرده است.
ابزار پیشنهادنویس هوش مصنوعی رایگان است؟
این در دسترس رایگان همه قرار دارد، از جمله افرادی که هیچ مهارتی در مورد نوشتن پیشنهادات دریافت کمکهزینه ندارند و کسانی که نمیتوانند خوب بنویسند، اعم از کسانی که لاتین زبان دوم آنهاست، مشکلات یادگیری دارند یا در نوشتن نثر مهارت خاصی ندارند.
البته هوش مصنوعی هرگز به خوبی یک پیشنهادنویس با تجربه عمل نمیکند. هوش مصنوعی حقیقتاً فاقد دانش، خلاقیت و قوه تشخیص ذاتی است، اما این فناوری با کمک به افرادی که نمیتوانند پیشنهادات خوب بنویسند، به ایجاد فرصتهای برابر و عادلانه منتهی میشود، حجم کار را کاهش میدهد و نوشتن پیشنهاد را برای آنها سریعتر و سادهتر میکند.
هدف ما از این کار فقط آزمایش نیست و قبلا شاهد بودهایم که چطور امکان ایجاد یک فرآیند سرتاسری جمعآوری کمک مالی از مرحله جستجو تا ارائه وجود دارد. در این صورت عدالت بیشتری برقرار شده، حجم کاری متقاضیان کاهش یافته و شرایط بهتری برای گرنتدهندگان ایجاد میشود.
با این حال تصور میشود که هوش مصنوعی به خوبی شناخته نشده و عدم درک این فناوری بسیار جدید و منافع مسلمی که مایل به ایجاد رقابت حاصل از هوش مصنوعی نیست، شاید منجر به ممنوعیت آن توسط گرنتدهندگان شود. این اتفاقی است که احتمالاً رخ میدهد و در این صورت گروههای کوچک و به حاشیهراندهشده نمیتوانند از آن استفاده کنند.
آیا سازمانهای بزرگ امکان استفاده از این قابلیت را دارند؟
سازمانهای بزرگ شاید بتوانند از آن برای ایجاد پیشنویسهای اولیه استفاده کرده و سپس از پیشنهادنویسان باتجربه برای تبدیل به پیشنهادات باکیفیت بهره گیرند. به این ترتیب شاید نابرابری در محیط رقابتی حتی بیشتر شود.
روی دیگر سکه فرصت بزرگی است که برای ایجاد برابری در محیط بازی وجود دارد. گرنتدهندگان میتوانند از هوش مصنوعی برای تبدیل فرآیندهای درخواست خود به مجموعهای از سؤالات که همه میتوانند به آنها پاسخ دهند استفاده کنند، نظیر کاری که چریتی اکسلنس انجام داده است.
سپس این سؤالات با استفاده از هوش مصنوعی به یک تقاضانامه استاندارد تبدیل میشود. فرآیند کار دقیقاً مشابه با درخواستهای شغلی ناشناس نیست، اما از همان اصول پیروی میکند. به این ترتیب نویسنده پیشنهاد حذف میشود، اما این کار رضایت ما را جلب میکند چرا که هدف، توانمندسازی بخش خیریه برای بهکارگیری هوش مصنوعی است.
استفاده از منابع مفید هوش مصنوعی
«چارچوب اخلاق و حاکمیت هوش مصنوعی در خیریهها» به کمک GPT و همچین منابع مفید دیگر تدوین شده که برخی از آنها به شرح زیر هستند:
دولت و مقررات
- سند دولت انگلیس: مقررات هوش مصنوعی: رویکرد حامی نوآوری. انتشار در 29 مارس 2023
- ICO: راهنمای هوش مصنوعی و حفاظت از دادهها. بهروزشده در 15 مارس 2023
- DCMS: چارچوب اخلاق داده. انتشار در 16 سپتامبر 2020
منابع مفید
- Responsible.AI – هوش مصنوعی مسئولانه در چارچوب جمعآوری کمکهای مالی
- گوگل – اصول هوش مصنوعی. انتشار در جولای 2018
- Digital Catapult- چارچوب اخلاق هوش مصنوعی
- والاستریت ژورنال: 25 پرسش که در حضور ChatGPT باید از خود بپرسید. بهروزشده در 12 آوریل 2023
- تایم: صفر تا صد هوش مصنوعی: انتشار در 13 آوریل 2023
- مجمع جهانی اقتصاد – گزارش آینده مشاغل 2023
استفاده قانونی از هوش مصنوعی در خیریهها
هر نهاد مردمی یا مؤسسه مردمنهاد ممکن است از این چارچوب یا بخشهایی از آن استفاده کند تا اطمینان یابد که استفاده از هوش مصنوعی منصفانه، قانونی و ایمن است. اما باید توجه داشت که این یک حوزه با تحولات بسیار سریع است و ما (چریتی اکسلنس) مسئولیت و عواقب کار را به عهده نمیگیریم.
در صورت استفاده از این چارچوب مطلع باشید که ما هیچ مسئولیتی در قبال هرگونه ضرر یا زیان شما نداریم. در صورت نیاز از مشاوره حرفهای استفاده کنید تا مطمئن شوید که نسخه شما با حذف، اضافه یا اصلاح بخشهایی از چارچوب به طور کامل نیازهایتان و هرگونه الزامات قانونی را برآورده میکند.
منبع: وبسایت charityexcellence
دیدگاه خود را بنویسید