შესახებ
ჟიპიტაური
ალბათ, თქვენც გსმენიათ კითხვები, განხილვები თემაზე “რა საფრთხეს შეიცავს ხელოვნური ინტელექტი”. ჩვენ ამ კითხვას ყოველდღიურად ვისმენთ. “ჟიპიტაური” - ს ქართული აუდიტორიისათვის მიწოდება სწორედ ამ თემაზე თვალსაჩინო მაგალითით ცნობიერების ამაღლებას ემსახურება. ვფიქრობთ, შევძელით და ბევრი ადამიანი დავაფიქრეთ ამ საკითხზე.
ცოტა ხნის წინ, კომპანია OpenAI - მ შექმნა ChatGPT, GPT3 მოდელზე დაფუძნებული სერვისი, რომელიც მთელი ინტერნეტის მონაცემების დასწავლის შედეგად შეიქმნა. Შესაბამისად, მოდელს ცოდნა აქვს იმაზე დაყრდნობით, რაც ინფორმაციის დონეზე მოიპოვება ინტერნეტ სივრცეში. ამან თავის მხრივ გამოიწვია სხვადასხვა საკითხზე სუბიექტურად თუ ობიექტურად არარელევანტური პასუხები - ხელოვნური ინტელექტი რა აზრსაც უფრო მეტ ადგილას შეხვდება, ის “აზრი” ჩამოუყალიბდება და გაავრცელებს.
ამ მაგალითით, კარგად ჩანს რას წარმოადგენს ხელოვნური ინტელექტის საფრთხე. ეს სხვადასხვა გამოყენებაში სხვადასხვანაირად შეიძლება რეალიზდეს - დიალოგში ამ მაგალითის მსგავსად, რობოტიკაში - სხვაგვარად, ფოტო-ვიდეო მასალის შექმნა გავრცელებაში კიდევ სხვა მხრივ და ა.შ.
შესაბამისად, ხელოვნური ინტელექტის უკონტროლოდ განვითარება ან არაკეთილსინდისიერი ადამიანების მიერ გამოყენება საფრთხეს წარმოადგენს და ეს არა მხოლოდ მომავალში მოხდება, არამედ უკვე რეალობაა დღეს. მისია, რომელსაც AI შემქმნელები უნდა ემსახურებოდნენ, არის ის, რომ მისგან მეტი სარგებელი და ნაკლები რისკი მოდიოდეს.
ეს პროექტი, ონლაინ გაშვების მომენტიდან, სწორედ საფრთხის მიმართ მოქმედების მაგალითს ემსახურება, “ჟიპიტაური” - ს პასუხები რუსეთ-საქართველოს და რუსეთ-უკრაინის ომზე ეფუძნებოდა იმ ინფორმაციას, რომელიც მონაცემებში უფრო მეტად შეხვედრია ხელოვნურ ინტელექტს, რაც თავის მხრივ, საინფორმაციო ომის შედეგს წარმოადგენს. Მაგალითად, თუკი ხელოვნურ ინტელექტს მიმართულებას მივცემთ ე.წ. “Prompting” - ით და სწორ ინფორმაციას მივაწვდით, მაშინ ის გაითვალისწინებს ამას თავის ცოდნაში და არასწორი ინფორმაციის გავრცელების რისკიც შემცირდება. თუმცა, ეს უფრო შედეგთან ბრძოლას გავს, ვიდრე მის გამომწვევ მიზეზთან.
Prompting-ის სწორი გამოყენება უკვე არსებული ცოდნის გარდაქმნაა - სტილისტიკური მიბაძვა, მაგალითად გალაკტიონს რომ დაეწერა ამინდის პროგნოზი” ან “გრძელი სტატიის მოკლე შინაარსის შედგენა”.
ჩვენ აქ საუბარი გვაქვს იმ ცოდნის სწორ მიწოდებაზე, რომელიც დასწავლისას დაილექა მოდელის მეხსიერებაში და ჩვენ ეხლა ვცდილობთ “ფრომფთინგით” გამოვუსწოროთ ადრეულ ეტაპზე დაშვებული შეცდომები - ეს არ არის მდგრადი გზა ასეთი მოდელების გამოყენების და არც ეკონომიკურადაა გამართლებული.
რადგან OpenAI კომერციული ორგანიზაციაა და კონცენტრირებულია ინგლისურ ენაზე არსებულ ცოდნაზე, ისიც იმ ცოდნაზე, რომელიც ჩვენგან დასავლეთით უფრო იყრის თავს ინტერნეტში, ჩვენს რეგიონში მოვლენებზე და მათზე გავრცელებულ ინფორმაციის სიზუსტეზე ყურადღება და ენერგია ნაკლებად აქვს მიმართული.
ამიტომ, საჭიროა დროულად ავუწყოთ ფეხი დიდი ენობრივი მოდელების შექმნის ტექნოლოგიებში დასავლეთს და შევქმნათ ჩვენი მოდელები, სადაც გვექნება სრული კონტროლი იმ რესურსებზე, რომლებზეც მოხდება დასწავლა და ისტორიული ფაქტების გამოგონებასაც ავარიდებთ თავს.
სწორედ ამ მიზანს ემსახურება ექსპერიმენტი “ჟიპიტაური”, გვინდა დავფიქრდეთ ყველა და რეალურ მაგალითებზე წარმოვიდგინოთ ძალიან ახლო მომავალი, სადაც მსგავს ენობრივ მოდელებზე დაფუძნებული სერვისები არამხოლოდ ამერიკული კომპანიებიდან იქნება შემოთავაზებული, არამედ ნაკლებად პასუხისმგებლიანი სახელმწიფოებიდანაც და თუ ამ მაგალითზე რაც დავინახეთ, როდესაც OpenAI-ს მოდელი საქართველოს და უკრაინის მიმართ რუსეთის აგრესიის შესახებ არასწორ პასუხებს აბრუნებს, შეგვიძლია წარმოვიდგინოთ ასეთი მძლავრი მოდელები მტრულად განწყობილი სახელმწიფოების ხელში.