🗞 Новият брой на Капитал е онлайн >>

Генеративният AI създава трудни избори за мениджърите

Трансформационните технологии могат да бъдат много сложни

Компаниите е трудно да следят как служителите използват AI.
Компаниите е трудно да следят как служителите използват AI.
Компаниите е трудно да следят как служителите използват AI.    ©  Shutterstock
Компаниите е трудно да следят как служителите използват AI.    ©  Shutterstock
Бюлетин: Вечерни новини Вечерни новини

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"

Забележителните възможности на генеративния изкуствен интелект (AI) са ясни в момента, в който го опитате. Но забележителността също е проблем за мениджърите. По-трудно е да разберете какво да правите с нова технология, когато тя може да засегне толкова много дейности; когато приемането му зависи не само от способностите на машините, но и от досадните хора; и когато има някои изненадващи недостатъци.

Проучване след проучване разкриват потенциала на големите езикови модели (LLM), които захранват AI като ChatGPT за подобряване на всякакви неща. LLM могат да спестят време, като генерират резюмета на срещи, анализират данни или изготвят съобщения за пресата. Те могат да подобрят обслужването на клиентите. Те не могат да сглобяват рафтове за книги на IKEA, но и хората не могат.

Стимулиране на иновациите

AI може дори да стимулира иновациите. Каран Джиротра от университета Корнел и неговите съавтори сравняват способностите за генериране на идеи на най-новата версия на ChatGPT с тези на студенти в елитен университет. Самотен човек може да измисли около пет идеи за 15 минути; въоръжете човека с AI и броят им достига до 200. Най-важното е, че качеството на тези идеи е по-добро, поне оценено от проучвания за намерение за покупка за нови продуктови концепции. Такива възможности могат да парализират шефовете - когато можете да правите всичко, лесно е да не правите нищо.

Лекотата на използване на LLM също има плюсове и минуси. Положителната страна е, че могат да бъдат намерени повече приложения за генеративен AI, ако повече хора го изпробват. Познаването на LLMs ще накара хората да ги използват по-добре. Рейд Хофман, сериен инвеститор в изкуствен интелект, има прост съвет: започнете да играете с него. Ако сте помолили ChatGPT да напише хайку преди година и не сте го докосвали оттогава, имате още какво да направите.

Познаването може също да противодейства на човешкия инстинкт да бъде предпазлив от автоматизацията. Доклад на Силианг Тонг от Технологичния университет Nanyang и неговите съавтори, публикуван през 2021 г., преди генеративният AI да е на мода, улови точно това подозрение. Той показа, че обратната връзка, генерирана от AI, подобрява представянето на служителите повече от обратната връзка от мениджърите хора. Обаче разкриването, че обратната връзка идва от машина, има обратен ефект: подкопава доверието, подклажда страхове от несигурност на работата и влошава представянето. Запознаването с LLM може да разсее опасенията.

Или не. Усложняващите неща са недостатъците в технологията. Речникът на Кеймбридж определи "халюцинирам" като дума на годината в знак на почит към склонността на LLM да бълват невярна информация. Моделите се развиват бързо и трябва да се подобряват поне в това отношение. Но някои проблеми се крият, според нова статия на Р. Томас Маккой от Принстънския университет и неговите съавтори.

Капани

Тъй като готовите модели са обучени на интернет данни да предсказват следващата дума в отговор на вероятностна основа, те могат да бъдат препънати от изненадващи неща. Вземете GPT-4, LLM зад ChatGPT, се справя добре, като трябва да умножи число по 9/5 и да добави 32. Помолете го да умножи същото число по 7/5 и да добави 31 и се справя значително по-зле. Разликата се обяснява с факта, че първото изчисление е като да конвертирате Целзий във Фаренхайт и следователно е често срещано в интернет; второто е рядко и затова не присъства много в данните за обучението. Такива капани ще съществуват и в патентованите модели.

На всичкото отгоре това е практически проблем: за фирмите е трудно да следят как служителите използват AI. Поверителните данни могат да бъдат качени и потенциално да изтекат в последващ разговор. По-рано тази година електронният гигант Samsung ограничи използването на ChatGPT от служители, след като според съобщенията инженерите споделиха изходния код с чатбота.

Тази комбинация от суперсили, простота и капани е объркваща за навигацията на шефовете. Но показва няколко основни правила. Бъдете насочени. Някои консултанти обичат да говорят за "подхода на фара" - избиране на ограничен проект, който има сигнална стойност за останалата част от организацията. Вместо да забранявате използването на LLMs, имайте насоки за това каква информация може да бъде поставена в тях. Бъдете наясно как работи технологията: това не е като да карате кола и да не ви пука какво има под капака. Преди всичко, използвайте го сами. Генеративният AI може да се почувства магически. Но е трудна работа да се оправиш.

2023, The Economist Newspaper Limited. All rights reserved

2 коментара
  • Най-харесваните
  • Най-новите
  • Най-старите
  • 2
    Zippie avatar :-P
    Zippie
    • + 1

    „Най-важното е качеството на ... проучвания за намерение за покупка за нови продуктови концепции“ 😁😁😁

    Нередност?
Нов коментар