На зв’язку AI HOUSE! Почнемо з кількох анонсів, а далі все як ми любимо — важливі новини та цікаві історії зі світу AI. 1. Сьогодні о 19:00 пройде перша лекція в межах проєкту AI for Ukraine: Season 2 — Deep Learning Decade and GPT-4, яку проведе Лукаш Кайзер, Member of Technical Staff в OpenAI. Послухаємо про дослідження, які привели до створення GPT-4 та ChatGPT, еволюцію трансформерів та дізнаємося, чого ж очікувати від AI у майбутньому. Лукаш був частиною команди Google Brain, працював над моделями GPT4 і Codex і є співавтором статей про трансформери, системи TensorFlow та інших моделей нейронних послідовностей. Приєднуйтесь, ставте нагадування про початок трансляції <або відкладайте на «послухати пізніше»> та реєструйтесь, щоб отримати сповіщення на мейл про майбутні лекції. 2. Разом зі стартапом Mantis Analytics, організовуємо Kaggle Competition: Disinformation Detection Challenge. Хочемо створити AI-рішення, які допоможуть українським ЗМІ, фактчекерам і громадським діячам виявляти та контролювати поширення неправдивої інформації. Челендж пройде на платформі Kaggle з 17 по 19 листопада + офлайн зустріч у Києві. Подія буде корисна всім, хто цікавиться Data Science, студентам та Junior/Middle/Senior спеціалістам у сфері ML/DL/DS. Дізнатися більше подробиць можна на нашому сайті, а зареєструватися — тут.
3. Новий випуск AI HOUSE Podcast! Цього разу до нас завітав Ярослав Терещенко, Senior CV/ML Developer у Svitla Systems. Поговорили про Computer Vision, а саме: про еволюцію методів CV, розвиток 3D-реконструкції, self-driving автомобілі, вплив stable diffusion на індустрію та багато іншого. А тепер — до новин! Сьогодні розібратися в них нам допоможе Влад Завадський, кофаундер та Head of R&D у Zibra AI, deep-tech компанії з екосистеми Roosh, яка розробляє платформу для створення реалістичних ефектів на базі ШІ для віртуальних світів. |
|
1. Деяким власникам преміум версії вже доступний оновлений ChatGPT. |
|
Тепер це повноцінний мультимодальний чат-бот, який може аналізувати PDF-ки, генерувати картинки та виходити в інтернет без перемикання між режимами. Станом на зараз невідомо, як швидко доступ стане повноцінним хоча б для підписників. Можливо, про це розкажуть вже наступного тижня на OpenAI Dev Day — очікуємо на пачку потужних анонсів звідти. |
|
Коментар Влада: Хоча вже існують плагіни, які роблять все це, і навіть компанії, які продають тонкий прошарок над API пропрієтарних LLM, мати все в одному місці з можливістю зберігати контекст діалогу звучить круто. Те, наскільки це буде зручно на практиці, залежить від імплементації. Мої ранні тести GPT-4V показали, що наявність картинки в контексті моделі робить генерацію суттєво повільнішою і сильно зменшує кількість тексту, яку можна мати в одному діалозі до отримання помилки. Але навіть так, це було варто можливостей, які розблоковує мультимодальність: якщо навіть «сліпий» ChatGPT може генерувати софт з юзабельним UI, що може робити GPT-4V, який здатен оцінити, як та чи інша зміна вплинула на вигляд програми? Додайте підтримку PDF і можна до команди розробників заспавнити команду дослідників, які будуть читати свіжі пейпери, синтезувати нові ідеї та передавати симульованому відділу розробників на валідацію. А там вже не за горами день, коли на якійсь ICLR почнуть з’являтись повністю згенеровані пейпери. |
|
2. Google крокує у майбутнє |
|
Вже скоро в Google Makersuite з’явиться Gemini — потужна мультимодальна LLM, яка замінить сучасну модель PaLM 2. Про неї говорять вже деякий час, а інсайдери очікують, що Gemini може бути кращою за GPT-4. Згідно з останньою інформацією, Gemini вже близька до запуску, проте точної дати поки що нема. Попередньо відомо, що модель зможе приймати промпти у вигляді текстів, зображень та аудіо, а натомість видаватиме все це і HTML-контент. Можна лише уявити, на що вона буде здатна, якщо Google тренував її на всіх даних, які у них є. Також стало відомо про секретний інструмент Stubbs, який розробляють інженери Google, — щось типу ChatGPT для розробників застосунків. Це функція в Gemini, яка дозволить створювати застосунки на базі AI прямо в Google MakerSuite. Якщо інсайди підтвердяться, і це дійсно працює так, як описано, то інтеграція AI в роботу розробників стане справжнім must. |
|
Коментар Влада: Якщо якісну мовну модель від неякісної відділяє набір трюків, накопичений великою кількістю експериментів, можливо, ми побачимо, що наздогнати OpenAI, який значно довше інвестував у цей напрям більшу кількість ресурсів, не так і просто. Може й навпаки — необхідність нового підходу для конкурентної переваги стимулює Google зробити більш фундаментальні відкриття. Якщо коротко, то чи стане Gemini конкурентом серії GPT може показати тільки час. Хотілося б сподіватись, що по Gemini випустять нормальний пейпер (а не рекламний буклет). Але, зважаючи на конкуренцію, розраховувати на це не варто. Щодо Stubbs — конструктори вебсайтів виходять на новий рівень, але про конкретні можливості спекулювати поки рано. Ймовірно, інструмент буде корисним для прототипування (як натякає назва) і дозволить скоротити час на імплементацію UI/UX. |
|
3. Технокорпорації готуються до AGI |
|
AGI — або загальний штучний інтелект — це система, яка може виконати будь-які задачі, над якими зараз працюють люди. Зараз про потенціал AGI говорять не так активно (що логічно) — поки що ми не готові навіть до повноцінного розгортання сучасних AI-моделей і радше гасимо пожежі, а не попереджаємо їх. На цю тему влучно висловився Деміс Гассабіс, CEO Deepmind: «Ми маємо ставитися до ризиків, пов'язаних зі штучним інтелектом, так само серйозно, як і до інших великих глобальних викликів на кшталт зміни клімату. Міжнародна спільнота занадто довго координувала глобальну реакцію на це — з цими наслідками ми живемо і досі. Дозволити собі подібну затримку з AI ми не можемо». Саме тому головні гравці у сфері — OpenAI, Anthropic, Google і Microsoft — вже починають готуватися до потенційної появи AGI. У липні компанії оголосили про створення організації Frontier Model Forum <FMF>, діяльність якої спрямована на забезпечення відповідальної розробки та використання передових AI-моделей. Тепер FMF має свого виконавчого директора, Кріса Месерола, а учасники організації створили AI Safety Fund, який профінансує різноманітні безпекові дослідження на $10 млн у вигляді грантів. Також FMF детально розповіла про Червоні команди (Red Teaming) — розробників, які тестують моделі перед їхнім релізом. Наприклад, перед тим як GPT-4 побачила світ, OpenAI найняла 41 дослідника, які отримали попередній доступ до нейронки та вивчали її потенційні можливості та ризики у відкритому світі. Крім того, організація розробляє новий процес розкриття інформації, який допоможе передовим AI-лабораторіям оперативно ділитися інформацією, пов'язаною з виявленням вразливостей у передових моделях, а також можливими заходами для боротьби з ними. |
|
Коментар Влада: Це контроверсійна тема і зустрічаються геть протилежні думки навіть в тісному колі хрещених батьків машинного навчання. Andrew Ng нещодавно висловив думку, що великі компанії брешуть про ризики сучасного AI, щоб послабити конкурентів. Ця теза активно обговорюється вже протягом певного часу — і хоча в цьому точно є частка правди, ризики дійсно існують. Проте, замість того, щоб фокусуватись на ризиках справді небезпечних застосувань, наявні «red teams» дотепер бачили загрозу здебільшого у неполіткоректних висловлюваннях і генерації інструкцій, які не надто складно нагуглити навіть у відкритому вебі або згенерувати розцензурованими версіями LLMок, які встановлюються в один рядок і швидко працюють навіть на ноутбуці. |
|
💡 NVIDIA створила AI-агента Eureka, що здатен навчати роботів без участі людини. Eureka працює на базі GPT-4 — агент автономно створює алгоритми винагороди для підкріплення навчання методом спроб і помилок, що дозволило роботам опанувати майже 30 завдань: від крутіння ручки до використання ножиць. 🍏 Apple планує наздоганяти лідерів ринку AI. Компанія виділятиме по $1 млрд на рік на розвиток AI і вже відкрила кілька вакансій, які натякають на те, що її продукти будуть працювати на базі штучного інтелекту. Зараз в Apple тестують власну LLM-ку Ajax, а також працюють над апдейтами для Siri, яку підсилить AI. ⚠️ В OpenAI з’явилася Preparedness team, яка займатиметься прогнозуванням та захистом від «катастрофічних» ризиків, пов’язаних зі штучним інтелектом. Команда має розробити політику зі зменшення ризиків розробки AI-технологій нового покоління. Зараз шукають спеціалістів і запустили Preparedness Challenge, переможці якого отримають $25 тис. у вигляді API-кредитів. 🖼 Google ідентифікуватиме зображення, згенеровані штучним інтелектом. Функція «About this image» покаже історію та контекст використання картинки, сайт, де вона вперше з’явилася, та метадані. Нині функція доступна лише для англомовних користувачів. 🐕 Робособака Spot від Boston Dynamics тепер може говорити завдяки ChatGPT. Є кілька голосів — дворецький, тінейджер, археолог з 1920-х, мандрівник у часі з шекспірівської епохи тощо. На відео Spot проводить екскурсію офісом Boston Dynamics. Виглядає футуристично. 🗣 Мешканці Нью-Йорка отримували автоматизовані дзвінки від мера міста Еріка Адамса, який розмовляв китайською, іспанською, урду, на їдиші та іншими мовами, хоча насправді він не володіє ними. Команда мера використала штучний інтелект для клонування його голосу, щоб створити та адаптувати телефонні сповіщення, які звучать, як Адамс. Проте не повідомила про це суспільству. Тепер експерти розмірковують, наскільки етичними є такі кроки. 🇨🇳 Китайські AI-стартапи залучають космічні суми. Так, Zhipu AI залучила $342 млн; серед інвесторів — найбільші технокорпорації Китаю: Alibaba, Tencent, Xiaomi. Ці ж компанії нещодавно проінвестували у Baichuan, який загалом підняв $300 млн. Обидва стартапи працюють над розробкою власних LLM-моделей, а Zhipu AI — ще й над аналогом ChatGPT під назвою Qingyan. 👨🎤 YouTube розробляє AI-інструмент, який дозволить людям звучати, як популярні музиканти. Користувачі зможуть створювати відео, використовуючи голоси відомих співаків. Проте наразі Youtube фіналізує угоду зі звукозаписними компаніями. Ще одна нова фішка від платформи — можливість створювати власні обкладинки для плейлистів за допомогою штучного інтелекту. 🧠 Meta створила AI-систему, яка може генерувати зображення силою думки, — буквально. Тобто якщо ви уявляєте сир, система генерує картинку сиру, причому менш ніж за секунду. Для цього система використовує магнітоенцефалографію, аналізуючи візуальну активність мозку та відтворюючи зображення, про яке подумала людина. 🛠 Оупенсорсні моделі стають все популярнішими серед AI-стартапів (замість традиційних пропрієтарних моделей на кшталт ChatGPT чи Claude). Моделі з відкритим кодом можуть поступатися за якістю та можливостями, проте є гнучкими у налаштуваннях і дозволяють заощадити. Тому невеликі компанії, які надають перевагу економічній ефективності та кастомізації, часто використовуються саме оупенсорс. 🙈 Трохи зашкварів. - ООН створила Раду з міжнародного регулювання AI, куди серед інших увійшла росіянка анна абрамова, директорка Центру штучного інтелекту мгімо. Також вона є експерткою російської ради з міжнародних справ, яка знаходиться під канадськими санкціями через депортацію росіянами українських дітей і поширення пропаганди.
- Представники NLP-конференцій EMNLP і ACL 2024 допустили до участі в конференції росіян з AIRI, Skoltech і Sber AI. Їх не зупинили навіть міжнародні санкції проти сколково та сбєрбанку, які допомагають виробляти зброю та є ледь не найважливішою фінансовою установою рф відповідно. Просимо поширити цей тред в X; також можна сходити на акаунти конференцій (тут і тут), щоб висловити своє ставлення до ситуації.
|
|
Цікаве з мережі: Важливі кроки щодо регулювання штучного інтелекту. |
|
У США, Європі та Китаї зрозуміли потенціал глобального впливу AI на весь світ, а тому починають все активніше працювати над розробкою регулювання сфери. Результати дуже різні. До речі, послухати про те, що планують робити з регулюванням AI в Україні можна в нашому спеціальному випуску AI HOUSE Podcast з Олександром Борняковим, заступником Міністра цифрової трансформації. Почнемо з США. В понеділок Джо Байден видав указ про безпечний та надійний штучний інтелект. Звучить потужно, в медіа його вже називають «найважливішою спробою Вашингтону» врегулювати цю технологію, але більшість позицій там доволі загальні. Він зобов'язує розробників тестувати власні системи та розкривати їхні результати уряду <стосується лише найпотужніших моделей>, використовувати вотермарки для позначення AI-generated content, встановлює, як генеративні моделі зможуть використовувати федеральні службовці, вказує на необхідність інтеграції AI в освіту та медицину, а також полегшує імміграційні бар'єри для висококваліфікованих працівників. Проте все це — майже без подробиць та способів впровадження. Більшість експертів погоджуються, що документ має стати радше каталізатором для роботи над AI-законодавством. Загалом в уряді дуже покладаються на лідерів ринку — OpenAI, Google, Meta, Anthropic, — щоб ті допомогли розв'язати цю задачу. Європа ще з 2021 року розробляє Проєкт закону про штучний інтелект, але до консенсусу між країнами і досі дуже далеко, пише Reuters. Влітку Європейський парламент ухвалив проєкт закону про штучний інтелект <AI Act>, проте це був лише початок. Європейська система складна, і далі деталі закону проходять через коліщатка бюрократії та тисяч узгоджень, перш ніж він запрацює. Європейці планують багаторівневий підхід до регулювання тих нейромереж, якими користуються понад 45 млн користувачів та додаткові перевірки для найпотужніших AI-моделей на кшталт ChatGPT. Проте деякі представники ЄС впевнені, що менші платформи також можуть бути небезпечними, а тому регулярно перевіряти варто і їх. Водночас жодних чітких критеріїв поки немає. Зараз Іспанія, яка головує в ЄС до грудня, активно намагається знайти рішення, які задовольнять усіх, але розбіжностей надто багато. Чи має AI вміти розрізняти емоції людей і відстежувати людей за обличчями, чи можна використовувати матеріали, що захищені авторським правом для навчання LLM, як регулювати алгоритми соцмереж — по жодному з пунктів однозначної відповіді поки нема. Водночас за звання країни-лідерки у сфері AI хоче і готовий змагатися Китай. У країні також працюють над основою законів, які регулюватимуть сферу та залучають до цього технокорпорації на кшталт Huawei, Alibaba та Tencent <принаймні так було раніше>. У жовтні TC260 <скорочена назва китайського безпекового IT-регулятора> випустив драфт документа, який пропонує правила оцінки та регулювання генеративних AI-моделей. Станом на зараз це найдетальніший документ такого типу, який встановлює багато чітких критеріїв і метрик для навчання та тестування нейромереж: Про навчання: Базові AI-моделі мають навчатися на різноманітних з точки зору мов і форматів корпусах належної якості. Якісними вважаються ті джерела, де серед 4000 випадково відібраних «фрагментів даних» перевірка знайде не більше ніж 5% «незаконної та негативної інформації» <що в Китаї вважають «незаконною інформацією» — це вже інше питання>. Про модерацію: AI-розробники мають наймати модераторів, які «покращують якість згенерованого контенту на основі національної політики та скарг третіх сторін», а «розмір команди модераторів повинен відповідати розміру сервісу». І це не просто так, адже модератори контенту — це найбільший відділ в компанії ByteDance, яка розробила TikTok. Китай активно розбудовує машину цензури? <риторичне питання>. Про заборонений контент: Будуть тисячі ключових слів для позначення такого контенту. Документ визначає вісім категорій політичного контенту, який порушує «основні соціалістичні цінності», де буде по 200 ключових слів; також є дев'ять категорій «дискримінаційного» контенту <на основі національності, релігії, статі, віку тощо>, де буде по 100 ключових слів. Також необхідно придумати понад 2 тис. промптів для перевірки моделей <мінімум по 20 на кожну з категорій>. Якщо нейронка генеруватиме понад 10% забороненого контенту, вона має бути допрацьована, перш ніж стати доступною для загального користування. Про тонку цензуру: Деякі сучасні китайські AI-моделі можуть відмовитися відповідати на будь-яку підказку з текстом «Сі Цзіньпін». У майбутньому ж вони повинні розповідати про голову КНР виключно так, як цього вимагатиме Комуністична партія, але щоб це було непомітно для користувачів. У документі урядовці просять представників компаній модерувати та цензурувати моделі обережно, аби це не було надто очевидно. Розробники мають знаходити промпти щодо політичної системи, на які можна відповідати без ризику, — вимагається, щоб нейронки відмовлялися відповідати менш ніж на 5% запитів. |
|
ЗСУ застосовують дрони на базі AI, які самостійно шукають та атакують цілі. Це може бути першим випадком використання автономних дронів в історії, пише видання New Scientist. Міноборони України на початку вересня дозволило постачати ЗСУ безпілотники Saker Scout. Розробники хотіли використовувати дрони для бізнесу і захисту врожаю, проте повномасштабне вторгнення змусило компанію змінити свій профіль. Дрони можуть працювати на відстані 10-12 кілометрів, а також працювати в умовах ворожої РЕБ. Однією з перших можливостей застосування дронів з AI був пошук замаскованої російської техніки. Зараз алгоритми розрізняють 64 різні типи техніки включаючи танки, БТРи та вантажівки, що економить сотні годин людської праці для обробки та аналізу відео. Вся інформація передається в систему Дельта, де агрегуються дані з різних джерел та створюються комплексні карти поля бою з розташуванням техніки та особового складу противника. Це значно скорочує час, необхідний для розвідки та прийняття рішень. |
|
Комплекс Saker Scout складається з кількох літальних апаратів — розвідувального БПЛА, який ідентифікує військову техніку <навіть замасковану>, визначає її координати і передає в командний центр. Штучний інтелект визначає пріоритетні цілі, після чого в роботу вступають FPV-дрони, оператори яких верифікують вказівки AI та приймають рішення, чи завдавати удару. Розвідувальний дрон може і сам нести боєприпаси <до 3 кг> та скидати їх на противника — представники компанії-виробника підтвердили Forbes, що дрони вже використовувалися для повністю автономних атак, хоч і в невеликих масштабах. Потенційно це допоможе зберегти життя українських солдатів, адже їм не потрібно буде підходити до російських позицій, щоб уразити ворожу техніку. |
|
|
---|
|
Дякуємо, що дочитали! Не забудьте порадити наш дайджест своїм знайомим, яким цікава тема AI&ML. А усі побажання, питання та поради для покращення ньюзлеттеру можна традиційно залишити за посиланням 🙂 |
|
|
---|
|
AI HOUSE — найбільше та найпотужніше АІ-комʼюніті в Україні. Обмінюємось досвідом і знаннями, здобуваємо навички, реалізовуємо нові технологічні та бізнесові ідеї, розвиваємо індустрію та сприяємо народженню продуктових AI-стартапів. AI HOUSE є частиною екосистеми технологічної компанії Roosh. |
|
|
---|
|
|
|