زوئی کلاینمن_بیبیسی: این صحنه را تصور کنید: در خانه با خانواده نشستهاید که ناگهان سر و صدای تلفن بلند میشود... دوستان و آشناهایتان دارند درباره چیزی که درباره شما در شبکههای اجتماعی دیدهاند هشدار میدهند.
به گزارش زیسان؛ چنین اتفاقی و چنین احساسی اصلا خوشایند نیست. در مورد خود من یک تصویر بود که ظاهرا از گراک، چتبات ایلان ماسک، گرفته شده بود - هر چند که من نمیتوانم این را تایید کنم - و من را در فهرستی از بدترین پخشکنندگان اطلاعات غلط در ایکس (توییتر سابق) قرار میداد، در کنار بعضی از کلهگندهترین سازندگان تئوریهای توطئه در آمریکا.
من هیچ ربطی به آن فهرست نداشتم و، به عنوان یک خبرنگار، هیچ علاقهای نداشتم در چنین فهرستی قرار بگیرم.
دسترسی به گراک در بریتانیا ممکن نیست، برای همین از چتجیپیتی و بارد، هوش مصنوعی گوگل، با پرسشی مشابه خواستم که فهرست مشابهی درست کنند. هر دو رد کردند، و بارد پاسخ داد که چنین کاری «بیمسئولیتی» است.
من گزارشهای زیادی راجع به هوش مصنوعی و نظارت بر آن منتشر کردهام، و یکی از بزرگترین نگرانیهای مردم این است که چطور میشود قوانین را با این فناوری تحولآفرین و پویا مطابقت داد.
باور مشترک کارشناسان در چندین کشور این است که انسانها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان میگذرد ابزارهای هوش مصنوعی هم محتوای بیشتری درباره ما تولید میکنند و هم تصمیمهای بیشتری راجع به زندگی ما میگیرند.
در بریتانیا هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولت میگوید که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند.
تصمیم گرفتم کاری بکنم.
اول از همه سراغ ایکس رفتم - و طبق روال عادی این شرکت در قبال پرسشهای رسانهای نادیده گرفته شدم.
سپس با دو سازمان نظارتی بریتانیا تماس گرفتم. دفتر کمیسیونر اطلاعات نهادی دولتی برای محافظت از دادهها است، ولی به من توصیه کرد که با آفکام تماس بگیرم، نهادی که ضابط قانون امنیت آنلاین محسوب میشود.
آفکام هم به من گفت که آن فهرست مشمول این قانون نمیشود، چون فعالیت مجرمانه نیست. به گفته این نهاد «محتوای غیرقانونی... یعنی محتوایی که ویژگیهای کیفری داشته باشد، برای همین مسائل حقوقی نظیر افترا را پوشش نمیدهد. فرد باید برای برخورد با این کار از مسیر حقوقی وارد شود.»
این حرف یعنی من باید وکیل بگیرم.
در ایالات متحده، یک مجری رادیویی به نام مارک والترز از شرکت اوپن ایآی، سازنده چتجیپیتی، شکایت کرده است، چرا که این چتبات به غلط مدعی شد که او از یک سازمان خیره کلاهبرداری کرده است.
یک شهردار استرالیایی هم که به گفته این چتبات به گرفتن رشوه محکوم شده بود تهدید کرده بود که از این شرکت شکایت خواهد کرد. او در واقع افشاگری کرده بود و چتجیپیتی دادههای او را به اشتباه به هم چسبانده بود. این دعوا بیرون دادگاه حلوفصل شد.
با دو وکیل که تخصص هوش مصنوعی دارند تماس گرفتم. اولی حاضر به همکاری نشد.
دومی گفت که این «حیطهای نامعلوم» در انگلستان و ولز است.
این وکیل تایید کرد که اتفاقی که برای من افتاده است میتواند افترا تلقی شود، چرا که نام من قابل شناسایی است و فهرست نیز منتشر شده بود.
اما در ادامه گفت که این وظیفه من است که ثابت کنم این محتوا برای من زیانآور بوده است. باید نشان بدهم که به عنوان یک خبرنگار برای من بد است که به پخش اخبار دروغ متهم شوم.
من اصلا نمیدانم که چطور وارد آن فهرست شده بودم، و دقیقا چه کسی آن را دیده بود. اعصابم از این که نمیتوانستم خودم به گراک دسترسی داشته باشم خرد بود. میدانم یک «حالت سرگرمی» دارد که قرار است پاسخهای تندوتیزتری بدهد - شاید سر کارم گذاشته بود؟
چتباتهای هوش مصنوعی به «هذیان گفتن» شهرت دارند - که به زبان بچههای این حوزه یعنی از خودشان حرف درمیآوردند. حتی سازندگانشان هم نمیدانند دلیلش چیست. صرفا توضیحی اضافه میکنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند؛ و حتی پاسخی که میگیرید هم لزوما ثابت نیست.
با همکارانم در بخش راستیآزمایی بیبیسی صحبت کردم، گروهی از خبرنگاران که کارشان تایید صحت اخبار و منابع خبری است.
بعد از مقداری تحقیق، به این نتیجه رسیدند که آن تصویری که من را متهم به پخش اخبار دروغ کرده بود و همه این گرفتاری زیر سرش بود، احتمالا خودش جعلی بوده است.
واقعا طنز است.
اما این تجربه، همزمان با افزایش نقش هوش مصنوعی در زندگیهای ما، چشمم را به تنها یکی از چالشهایی که در پیش روی ما است باز کرد.
وظیفه ناظران هوش مصنوعی این است که مطمئن شوند انسانها همیشه راهی ساده برای به چالش کشیدن رایانه دارند. اگر هوش مصنوعی دارد درباره شما دروغ میگوید - باید سراغ چه کسی بروید؟ فکر میکردم که میدانم، ولی فرایند سادهای نبود.