بیانیه ایفلا درباره کتابخانه‌ها و هوش مصنوعی

پذیرش هوش مصنوعی (از این پس به عنوان “AI” نامیده می شود) و یادگیری ماشین در بخش خصوصی و عمومی به سرعت در حال رشد است. این بیانیه خط‌‌مشی به منظور تشریح ملاحظات کلیدی برای استفاده از این فناوری‌ها در بخش کتابخانه و پیشنهاد نقش‌هایی است که کتابخانه‌ها باید در جامعه‌ای با ادغام هوش مصنوعی تلاش کنند، افزایش دهند.

فناوری‌های هوش مصنوعی می‌توانند عمیقاً دگرگون‌کننده باشند و از قدرت آن‌ها برای رفاه عمومی و نوآوری استفاده شود. با آمادگی لازم – و در نظر گرفتن نگرانی‌ها و محدودیت‌های اخلاقی فعلی – کتابخانه‌ها می‌توانند مسئولانه از فناوری‌های هوش مصنوعی برای پیشبرد مأموریت اجتماعی خود استفاده کنند.

هوش مصنوعی در کتابخانه: ادغام فناوری‌های هوش مصنوعی و یادگیری ماشین در کارهای روزمره.

همانطور که فناوری هوش مصنوعی در حال تکامل است، تعدادی از برنامه‌های کاربردی هوش مصنوعی و یادگیری ماشین (ML) ممکن است خدمات و عملکردهای جدیدی را به کتابخانه ها معرفی کنند. برای مثال، فناوری‌های هوش مصنوعی و یادگیری ماشین می‌توانند کتابخانه‌ها را قادر به بهبود تشخیص نوری نویسه‌های متن یا ایجاد کاربردهای جدید برای مجموعه‌های کتابخانه‌ای قابل خواندن با ماشین (به عنوان مثال طبقه بندی یا کشف) – چه برای خود کتابخانه، چه کاربر یا پژوهشگران شود.

به طور مشابه، هوش مصنوعی و یادگیری ماشین می‌توانند این قابلیت را داشته باشند که ابعاد و رویکردهای جدیدی به فرآیندهای مدیریت دانش در کتابخانه‌ها به ویژه سازمان‌دهی، ذخیره‌سازی و ادغام دانش اضافه کنند. هوش مصنوعی ممکن است بتواند ابعاد جدیدی را برای ارائه خدمات در صورت همراه شدن با روباتیک ارائه دهد. در حالی که مواردی وجود دارد که ممکن است از هوش مصنوعی برای خودکارسازی برخی از خدمات موجود کتابخانه (در برنامه‌های هوش مصنوعی مانند ربات‌های گفتگو یا ابزارهای جستجو و کشف) استفاده شود، باید مراقب بود که از تأثیرات منفی بر کیفیت خدمات و کارکنان جلوگیری شود (همانطور که در پیوست یک توضیح داده شده است).

برای مثال، کتابخانه‌ها و انجمن‌های کتابداری می‌توانند با محققان و توسعه‌دهندگان هوش مصنوعی تعامل داشته باشند تا برنامه‌هایی را به‌طور خاص برای استفاده در کتابخانه و/یا در پاسخ به نیازهای کاربر ایجاد کنند، از جمله با ایجاد خدمات قابل دسترس که قبلاً امکان‌پذیر نبوده است.

استفاده از فناوری‌های هوش مصنوعی در کتابخانه‌ها باید تابع استانداردهای اخلاقی روشن باشد، مانند استانداردهایی که در آیین‌نامه اخلاقی ایفلا برای کتابداران و سایر کارکنان اطلاعاتی بیان شده است. به عنوان مثال، برنامه‌های کاربردی هوش مصنوعی که به جمع‌آوری داده‌های گسترده – مانند نرم‌افزار تحلیل رفتار برای ارزیابی عملکرد – متکی هستند، نباید گزینه‌های حریم خصوصی کاربران یا ملاحظات حقوقی را نادیده بگیرند (مشخصات بیشتر در پیوست یک)

کتابخانه‌ها می‌توانند به کاربران درباره هوش مصنوعی آموزش دهند و به آنها کمک کنند در جامعه‌ای که از هوش مصنوعی بیشتر استفاده می‌کند، پیشرفت کنند.

تعداد فزاینده‌ای از ابتکارات دولت‌ها و سازمان‌های مدنی با هدف آموزش عموم درباره هوش مصنوعی و پیامدهای اجتماعی استفاده از آن است. کتابخانه‌ها منبع معتمد و معتبری از دانش هستند و می‌توانند به گسترش این تلاش‌ها به جوامع خود کمک کنند.

امروزه، بسیاری از کتابخانه‌ها برای کمک به مشتریان خود کار می‌کنند تا شایستگی‌های سواد دیجیتال شامل توانایی استفاده معنادار از فناوری، از مهارت‌های اولیه فناوری اطلاعات تا توانایی‌های خلاقانه – ایمن، اخلاقی و قانونی را توسعه دهند. این تلاش‌ها را می‌توان برای ارتقای سواد الگوریتمی گسترش داد – درک اینکه چگونه الگوریتم‌ها و سایر فرآیندهای دیجیتال بر نحوه دسترسی و دریافت اطلاعات کاربران تأثیر می‌گذارند.

برای مثال، کتابخانه‌های عمومی می‌توانند موقعیت مناسبی برای ارائه چنین آموزش‌هایی به عموم مردم داشته باشند (پیوست2)، اما این امر می‌تواند به سرمایه‌گذاری قابل توجهی در زمان و منابع و همچنین ارتقای مهارت از سوی کتابداران نیاز داشته باشد. بنابراین، کتابداران باید در این تلاش‌ها حمایت شوند – و همچنین می‌توانند با سایر سازمان‌ها یا بخش‌ها برای کمک به ارائه آموزش الگوریتمی و سواد دیجیتالی شریک شوند (بیشتر در پیوست2 توضیح داده شده است).

کتابخانه‌ها همچنین می‌توانند با کمک به کاربران خود در درک هوش مصنوعی، آنها را قادر سازند تا در بحث‌های خط‌مشی درباره معنای استفاده از هوش مصنوعی «به‌خوبی» شرکت کنند و اینکه کدام موارد استفاده برای عموم اخلاقی و مطلوب است.

به طور گسترده‌تر، کتابخانه‌ها می‌توانند نقشی در کمک به کاربران خود برای سازگاری با برخی از تغییرات احتمالی در بازار کار ناشی از هوش مصنوعی ایفا کنند. یادگیری مادام‌العمر این پتانسیل را دارد که نقش مهمی در کمک به افراد در مدیریت تغییر نیازمندی‌های مهارتی یا انتقال شغلی ایفا کند. ابزارها و خدماتی که کتابخانه‌ها ارائه می‌کنند می‌توانند فرصت‌های یادگیری مادام‌العمر عادلانه، به‌ویژه برای جمعیت‌های آسیب‌پذیر یا به حاشیه رانده شده را فراهم کنند. برای مثال، کلاس‌های رایگان سواد دیجیتال و مهارت‌های فناوری اطلاعات که بسیاری از کتابخانه‌ها ارائه می‌دهند، ممکن است اهمیت فزاینده‌ای پیدا کنند، زیرا این مهارت‌ها بیش از هر زمان دیگری بر قابلیت استخدام تأثیر می‌گذارند.

کتابخانه‌ها می‌توانند از پژوهش‌های هوش مصنوعی با کیفیت بالا و اخلاقی پشتیبانی کنند.

بسیاری از نگرانی‌های اخلاقی و فراگیر فعلی مرتبط با پژوهش‌ها و برنامه‌های کاربردی هوش مصنوعی از داده‌های آموزشی ناقص، نادرست یا مغرضانه (“زباله در داخل، زباله بیرون”) ناشی می‌شوند. کتابداران آموزش دیده می توانند تخصص خود را در زمینه ذخیره‌سازی داده‌ها و صدور مجوز، ارزیابی کیفیت داده‌ها، و ذخیره‌سازی اطلاعات ایمن و اخلاقی برای کمک به محققان برای رفع برخی از نگرانی‌های مربوط به داده‌ها به کار گیرند.

کتابخانه‌ها همچنین می‌توانند از پژوهش و توسعه اخلاقی هوش مصنوعی از طریق گزینه‌های انتخابی خود پشتیبانی کنند: فناوری‌های هوش مصنوعی را خریداری کنید که استانداردهای اخلاقی برای حفظ حریم خصوصی و فراگیر بودن را رعایت می‌کنند. این امر هم اعتماد کاربران را به کتابخانه ها تایید می‌کند و هم با افزایش تقاضا برای فناوری های هوش مصنوعی اخلاقی، پیامی را به حوزه پژوهش‌های هوش مصنوعی ارسال می‌کند.

کتابخانه‌ها برای سازگاری موفقیت‌آمیز به چه چیزی نیاز دارند؟

ماهیت دگرگون‌کننده هوش مصنوعی به این معناست که کتابخانه‌ها باید در موقعیتی باشند که بتوانند از منابع جدیدبه عنوان تغییرات چشم‌انداز فناوری استفاده کنند و خدمات خود را مطابق با نیازهای متغیر جامعه تنظیم کنند.

برای این منظور، کتابداران ممکن است با آگاهی بیشتر از چشم انداز فناوری بهره مند شوند. از آنجایی که هوش مصنوعی می تواند به طور قابل توجهی به اشتغال در این بخش تغییر شکل دهد، ممکن است برای سازگاری با تغییرات احتمالی در نقش‌هایشان در محل کار، به آموزش نیز نیاز داشته باشند. قابل توجه است که کتابخانه‌ها در بخش‌های مختلف ممکن است به‌طور متفاوتی تحت تأثیر قرار گیرند – برای مثال، کتابخانه‌های دولتی، حقوقی و سایر کتابخانه‌های تخصصی ممکن است بیشتر بر ارائه خدمات مبتنی بر دانش متمرکز شوند.

کتابخانه‌ها باید قوانین، زیرساخت‌ها و فناوری لازم را داشته باشند تا بتوانند هوش مصنوعی را بپذیرند و از آن استفاده کنند. استثناهای متن و داده‌کاوی تحت چارچوب کپی‌رایت برای اجازه دادن به کتابخانه ها برای ادامه انجام ماموریت خود و مشارکت فعال در جامعه هوش مصنوعی بسیار مهم است.

توصیه‌ها

بر اساس موارد فوق، ایفلا توصیه‌های زیر را به دولت‌ها، کتابخانه‌ها و انجمن‌های کتابداری ارائه می‌کند:

دولت ها (و سازمان های بین دولتی، در صورت لزوم) باید:

  • – استثناهای متن و داده کاوی را در چارچوب های کپی رایت لحاظ کنید
  • – اطمینان حاصل کنید که کتابخانه‌ها یا شبکه‌های کتابخانه‌ای زیرساخت‌ها و فن‌آوری‌های لازم را برای سازگاری و استفاده از فناوری‌های هوش مصنوعی دارند.
  • – اطمینان حاصل کنید که هر مقررات مربوط به هوش مصنوعی از اصول حریم خصوصی یا برابری محافظت می کند، و اجازه می دهد تا تلاش هایی انجام شود که از اهداف نوآوری و منافع عمومی حمایت می کند.
  • – اطمینان حاصل شود که کتابخانه ها در توسعه و اجرای برنامه ها و استراتژی های هوش مصنوعی بین بخشی گنجانده شده اند.

انجمن‌های کتابداری و مربیان آموزش کتابخانه باید:

  • – به کتابداران کمک کنید تا تأثیر هوش مصنوعی و ارتباط آن با اصول اخلاقی و حریم خصوصی را درک کنند. مربیان آموزش کتابخانه‌ای باید اطمینان حاصل کنند که کتابداران می‌توانند مهارت‌ها و شایستگی‌های دیجیتالی مناسب را توسعه دهند.
  • – از کتابخانه‌ها برای ایفای نقش بزرگ‌تری در تکامل سیستم آموزشی دفاع کنید، زیرا آنها با تغییرات بازار کار که هوش مصنوعی می‌تواند ایجاد کند، سازگار می‌شوند.
  • -با محققان و توسعه‌دهندگان هوش مصنوعی تعامل کنید تا برنامه هایی را برای استفاده از کتابخانه توسعه دهند که با استانداردهای اخلاقی و حریم خصوصی مطابقت داشته باشد و به طور خاص نیازهای کتابخانه و کاربران کتابخانه را برطرف کند.
  • – به عنوان انجمنی برای تبادل بهترین شیوه‌ها در مورد استفاده اخلاقی از فناوری‌های هوش مصنوعی در کتابخانه‌ها عمل کنید.

کتابخانه‌ها باید در صورت امکان و مناسب:

  • – به مشتریان خود کمک کنید تا سوادهای دیجیتالی را توسعه دهند که شامل درک نحوه عملکرد هوش مصنوعی و الگوریتم‌ها و سوالات مربوط به حریم خصوصی و اخلاقی است.
  • – به تمرکز تلاش‌ها بر تسهیل یادگیری مادام‌العمر و در صورت امکان، ارائه خدمات به بیکاران ادامه دهید.
  • – اطمینان حاصل شود که هرگونه استفاده از فناوری‌های هوش مصنوعی در کتابخانه‌ها باید تابع استانداردهای اخلاقی واضح باشد و از حقوق کاربران آنها محافظت کند.
  • – فناوری‌هایی را تهیه کنید که به الزامات حقوقی و اخلاقی حریم خصوصی و دسترسی پایبند باشند.

Loading

امتیاز بدهید
0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *