გაწუხებთ თვალების ქავილი და გაღიზიანება? სავარაუდოდ, იმ მილიონობით ადამიანს მიეკუთვნებით, რომლებიც ეკრანთან დიდ დროს ატარებენ და მუდმივად განიცდიან ლურჯი სინათლის ზემოქმედებას. თუ თვალებს ხშირად იფშვნით, შესაძლოა ქუთუთოებმა ოდნავ მოწითალო შეფერილობაც მიიღოს.
ერთი შეხედვით, ეს სიმპტომები სრულიად ჩვეულებრივად ჟღერს. თუმცა, თუ ბოლო 18 თვის განმავლობაში ამ მონაცემებს პოპულარულ ჩატბოტებში შეიყვანდით და იკითხავდით, თუ რა გჭირდათ, შესაძლოა საკმაოდ უცნაური პასუხი მიგეღოთ: ბიქსონიმანია.
ეს მდგომარეობა სტანდარტულ სამედიცინო ლიტერატურაში არ ფიქსირდება, რადგან ის ბუნებაში საერთოდ არ არსებობს. “დაავადება“ შვედეთში, გოტებურგის უნივერსიტეტის მკვლევრის, ალმირა ოსმანოვიჩ ტუნსტრომის გუნდმა შექმნა და 2024 წლის დასაწყისში მის შესახებ ორი ყალბი კვლევა პრეპრინტ სერვერზე განათავსა. ამ უჩვეულო ექსპერიმენტის მიზანი იყო იმის გარკვევა, შეძლებდნენ თუ არა დიდი ენობრივი მოდელები დეზინფორმაციის ათვისებას და მის სანდო სამედიცინო რჩევის სახით გავრცელებას. “მინდოდა შემემოწმებინა, შევძლებდი თუ არა ისეთი სამედიცინო მდგომარეობის შექმნას, რომელიც მონაცემთა ბაზებში არ არსებობს“, — აღნიშნავს მკვლევარი.
პრობლემა ის აღმოჩნდა, რომ ექსპერიმენტმა ზედმეტად ეფექტურად იმუშავა. ინფორმაციის გამოქვეყნებიდან რამდენიმე კვირაში, ხელოვნური ინტელექტის წამყვანმა სისტემებმა გამოგონილი დაავადების ისე აღწერა დაიწყეს, თითქოს ის რეალური ყოფილიყო. ექსპერტებისთვის კიდევ უფრო საყურადღებო აღმოჩნდა ის ფაქტი, რომ მოგვიანებით ეს ყალბი ნაშრომები რეცენზირებულ სამეცნიერო ლიტერატურაშიც დააციტირეს. ეს მიუთითებს იმაზე, რომ ზოგიერთი მკვლევარი ხელოვნური ინტელექტის მიერ გენერირებულ წყაროებს სათანადო გადამოწმების გარეშე იყენებს.
ტერმინი “ბიქსონიმანია“ 2024 წლის 15 მარტამდე არ არსებობდა, სანამ მის შესახებ ინტერნეტში ორი ბლოგპოსტი არ გამოჩნდა. იმავე წლის აპრილსა და მაისში აკადემიურ პლატფორმაზე ორი პრეპრინტიც გამოქვეყნდა. ავტორად მითითებული იყო სრულიად გამოგონილი მკვლევარი, ლაჟლივ იზგუბლენოვიჩი, რომლის ფოტოც ასევე ხელოვნური ინტელექტით შეიქმნა. ნაშრომებში ავტორებმა არაერთი მინიშნება დატოვეს იმის შესახებ, რომ სტატია ყალბი იყო: მიუთითეს არარსებული უნივერსიტეტი, გამოგონილი დაფინანსების წყარო და ტექსტში პირდაპირ ჩაწერეს, რომ „ეს სტატია მთლიანად გამოგონილია“. მიუხედავად ამისა, ალგორითმებმა ეს სიგნალები უგულებელყვეს.
ინფორმაციის ინტერნეტში გავრცელებისთანავე, ბიქსონიმანია ჩატბოტების პასუხებშიც გამოჩნდა. 2024 წლის აპრილისთვის სხვადასხვა სისტემა უკვე ამტკიცებდა, რომ ეს იყო ლურჯი სინათლის ზემოქმედებასთან დაკავშირებული “იშვიათი მდგომარეობა“ და მომხმარებლებს ოფთალმოლოგთან ვიზიტსაც კი ურჩევდა. რიგ შემთხვევებში, ჩატბოტები იმასაც აფასებდნენ, შეესაბამებოდა თუ არა მომხმარებლის სიმპტომები ამ არარსებულ დაავადებას.
სპეციალისტები ამ ფაქტს სერიოზულ გამოწვევად მიიჩნევენ. მათი შეფასებით, თუკი სამეცნიერო პროცესის მხარდამჭერი სისტემები მსგავსი დეზინფორმაციის გაფილტვრას ვერ ახერხებენ, ამას შესაძლოა ნეგატიური შედეგები მოჰყვეს. პრობლემა ისიცაა, რომ ხელოვნური ინტელექტი ტექსტის სანდოობას ხშირად მისი ფორმით აფასებს და არა შინაარსით. შესაბამისად, როდესაც ინფორმაცია ვიზუალურად პროფესიულად გამოიყურება და სამედიცინო ნაშრომის სტილშია დაწერილი, მოდელები მიდრეკილნი არიან, რომ ის რეალობად აღიქვან.
გარდა ამისა, AI-ს პასუხები მნიშვნელოვნად იცვლება იმის მიხედვით, თუ როგორ არის ფორმულირებული კითხვა. ერთ შემთხვევაში სისტემამ შესაძლოა სწორად მიუთითოს, რომ ბიქსონიმანია გამოგონილია, ხოლო სხვაგვარად დასმული კითხვისას, ის “ახალ დიაგნოსტიკურ ტერმინად“ აღწეროს. აღსანიშნავია, რომ ეს პრობლემა მხოლოდ ხელოვნურ ინტელექტს არ ეხება – აღმოჩნდა, რომ ინფორმაცია ადამიანებმაც დაიჯერეს. ერთ-ერთმა სამეცნიერო სტატიამ ბიქსონიმანია რეალურ მდგომარეობად აღწერა, რის გამოც მოგვიანებით ნაშრომის უკან გაწვევა გახდა საჭირო. ეს ფაქტი კარგად აჩვენებს, თუ რამდენად მარტივად შეიძლება გავრცელდეს დეზინფორმაცია, როდესაც ის აკადემიური ფორმით არის წარმოდგენილი.
მკვლევრები განსაკუთრებით უსვამენ ხაზს იმ საფრთხეს, რაც ასეთ დეზინფორმაციას სამედიცინო კონტექსტში ახლავს. არასწორმა მონაცემებმა პაციენტებს შესაძლოა მცდარი გადაწყვეტილებებისკენ უბიძგოს და, ზოგადად, სამეცნიერო ინფორმაციის მიმართ საზოგადოების ნდობა შეარყიოს. ალმირა ოსმანოვიჩ ტუნსტრომი თავადაც აღნიშნავს, რომ ექსპერიმენტის ეთიკური მხარე საკმაოდ რთული იყო. ერთის მხრივ, მას სურდა სისტემის სისუსტეების ჩვენება, ხოლო მეორეს მხრივ – პოტენციურად მავნე ინფორმაციის გავრცელების თავიდან არიდება. რისკების შესამცირებლად, მან საბოლოოდ შედარებით ნაკლებად საშიში “დაავადების“ გამოგონება გადაწყვიტა.
ამავდროულად, სხვა ექსპერტები მიიჩნევენ, რომ მსგავსი ექსპერიმენტები უფრო ფართომასშტაბიან პრობლემაზე მიუთითებს: თუკი ყალბი ინფორმაცია ერთხელ მაინც მოხვდება სამეცნიერო და ციფრულ ეკოსისტემაში, შესაძლოა ის მრავალჯერ გამეორდეს და კიდევ უფრო გაძლიერდეს. სპეციალისტები თანხმდებიან, რომ საჭიროა ხელოვნური ინტელექტის სისტემების უფრო მკაცრი კონტროლი და შეფასება, განსაკუთრებით მაშინ, როდესაც საქმე ადამიანის ჯანმრთელობას ეხება. წინააღმდეგ შემთხვევაში, იზრდება იმის რისკი, რომ პაციენტებმა არასანდო ინფორმაციაზე დაყრდნობით მიიღონ გადაწყვეტილებები. როგორც ერთ-ერთი ექსპერტი აჯამებს: “ჩვენ და ჩვენი ჯანმრთელობა ტექნოლოგიური კომპანიების საცდელ პლატფორმას არ უნდა წარმოვადგენდეთ“




