HOT

HOTNASCAR 2023: Вълнуващо пътешествие в американския моторен спорт ПРОЧЕТЕТЕ СЕГА
HOTФиладелфия Филис активира аутфилдера Кристиан Паче от списъка с контузени ПРОЧЕТЕТЕ СЕГА
HOTЛидерът на лейбъристите Кийр Стармър: Нова зора за Великобритания? ПРОЧЕТЕТЕ СЕГА
HOTКога бебето може да седи в количка? ПРОЧЕТЕТЕ СЕГА
HOTИкономическата устойчивост на Обединеното кралство блести с 0.2% растеж през август ПРОЧЕТЕТЕ СЕГА
HOTВисоките имиграционни цели на Канада: Ангажимент за бъдещ просперитет ПРОЧЕТЕТЕ СЕГА
HOTОснователят на WikiLeaks Джулиан Асандж се бори срещу екстрадиция в британския съд ПРОЧЕТЕТЕ СЕГА
HOTПо-ярки усмивки напред с канадския план за стоматологична помощ ПРОЧЕТЕТЕ СЕГА
HOTЗъболекар близо до мен в Канада ПРОЧЕТЕТЕ СЕГА
HOTПрекъсването на Facebook и Instagram оставя потребителите без връзка ПРОЧЕТЕТЕ СЕГА
СТРАНИЦА
парафикс меню
РЕКЛАМА :)
ПОЛУЧАЙТЕ НОВИНИ ОТ СВЕТА ИЛИ МЕСТНО! PLICKER ВИ ПРЕДЛАГА СТРАХОТНО СЪДЪРЖАНИЕ И НАСОКИ. ЗАПОЧНЕТЕ СЕГА, ЗА ДА ИЗПИТВАТЕ. ОСТАНИ ЩАСТЛИВ.
Оливър кафяв

Оливър кафяв

24 февруари 2024

2 DK ПРОЧЕТИ

39 Прочетете.

Когато ChatGPT загуби пътя си: Какво научихме от странния ден на AI Assistant

Във вторник миналата седмица се случи нещо необичайно с ChatGPT – един от най-широко използваните налични AI модели за разговори. Без предупреждение чатботът започна да отговаря на прости въпроси и сравнения с криволичещи абзаци от безсмислени думи, вместо с полезни обяснения. Объркани потребители се обърнаха към социалните медии, за да споделят примери за странното ново поведение на бота.

Макар и хумористичен, погледнат назад, този странен инцидент подчерта важни реалности за настоящите ограничения дори на най-напредналите AI системи. Генеративните модели като ChatGPT са сложни невронни мрежи, обучени да предсказват езика, но те не разбират истински значението по начина, по който го правят хората. Когато някакъв неочакван вход или вътрешен проблем наруши техните способности за съвпадение на шаблони, може да се получи неразбираем резултат.

Какво се обърка?

ChatGPT

OpenAI, компанията зад ChatGPT, по-късно потвърди, че вината е „бъг с начина, по който моделът обработва езика“. Невронните мрежи, захранващи такива модели на ИИ, работят чрез произволно вземане на проби от числа, за да се съпоставят с токени на думи по време на генериране на отговор. Но грешка причини неправилен избор на числа, което доведе до поредици от думи, които нямаха смисъл. Компанията бързо внедри корекция за разрешаване на проблема.

Все пак инцидентът послужи като напомняне, че генеративният AI като ChatGPT остава несъвършена технология – такава, която може да създаде странен или безсмислен език, ако вътрешната му обработка се обърка. Докато такива модели предлагат завладяващи разговорни способности, трябва да внимаваме да не разчитаме на тях твърде силно или безкритично за важни задачи като работа, образование или подкрепа при вземане на решения. Техните възможности остават ограничени в сравнение с езиковото владеене на човешко ниво.

В заключение, странният ден от миналия вторник демонстрира както обещанието, така и настоящите ограничения на AI като ChatGPT. Тъй като тези мощни модели стават все по-често срещани в живота ни, важно е да подхождаме внимателно към тях – като разпознаваме какво могат и какво не могат да правят, както и уроците, които могат да дойдат от техните неизбежни грешки. Събития като това подчертават текущия напредък, който все още е необходим, преди AI наистина да съответства на човешките способности.

Когато ChatGPT загуби пътя си: Какво научихме от странния ден на AI Assistant