Про це пише Wired, пише Рубрика.
У чому проблема?
У метрополітенах часто реєструють злочини:
Також у метрополітенах є декілька аспектів виникнення позаштатних ситуацій, серед яких дотримання та виконання Правил користування метрополітеном пасажирами та людський чинник зі сторони працівників метрополітену.
Проте безпека пасажирів є пріоритетним завданням працівників метрополітенів.
Яке рішення?
Тому на одній зі станцій Лондонського метрополітену камери відеоспостереження поєднали зі штучним інтелектом для відстеження порушень правил користування метрополітеном.
Як це працює?
З жовтня 2022 року до кінця вересня 2023 року транспортна компанія TfL, яка керує Лондонською мережею метро, тестувала алгоритми ШІ для розпізнавання подій на відео. Тестування проходило на станції Willesden Green, що на північному заході міста.
Програмне забезпечення поєднали з прямою трансляцією камер відеоспостереження, щоб спробувати виявляти агресивну поведінку та розмахування зброєю чи ножами, а також шукати людей, які падають на колії метро або ухиляються від оплати проїзду.
Це перший випадок у Великій Британії, коли транспортний орган об'єднав штучний інтелект і відео в реальному часі для створення сповіщень, які отримував персонал станції.
Під час випробування було видано понад 44 000 сповіщень, 19 000 — доставлено в режимі реального часу.
Найбільше попереджень видали щодо людей, які ухилялися від оплати за проїзд — 26 000.
За даними TfL, збитки від несплати проїзду сягають до 130 млн фунтів стерлінгів (понад 150 млн євро) на рік.
Голова служби громадської безпеки TfL Менді МакГрегор каже, що на станції не було жодних табличок, які б згадували про випробування інструментів стеження ШІ, щоб пасажири поводилися природно.
Значна частина аналізу була спрямована на те, щоб допомогти персоналу зрозуміти, що відбувається на станції, і оперативно реагувати на інциденти.
Система надіслала:
Видання пише, що ШІ припускався помилок під час випробувань.
Наприклад, позначав дітей, які слідували за своїми батьками через турнікети, як потенційних неплатників. Офіцери поліції також допомагали з налаштуванням системи. Поліціянти тримали мачете та рушницю в полі зору камер, щоб допомогти системі краще розпізнавати зброю.
Під час усіх тестувань зображення облич людей були розмиті, а дані зберігалися максимум 14 днів. Однак через шість місяців від початку тестувань системи ці дані вирішили зберігати довше — через велику кількість сповіщень, на які не встигали реагувати працівники.
Тестування також мало на меті з'ясувати, чи може штучний інтелект виявити велосипеди та скутери.
"ШІ не міг відрізнити велосипед у складеному стані від звичайного, а також електросамокат від дитячого самокату", — йдеться в статті.
Нагадаємо, в одній з лікарень Івано-Франківська штучний інтелект допомагатиме лікарям аналізувати рентгени грудної клітки пацієнтів.
Також повідомлялось, що ошийник-комунікатор для котів, який за допомогою штучного інтелекту перекладає звуки тварини у зрозумілу для людини форму, створили українські стартапери. Працює гаджет на зразок фітнес-браслета.
Як повідомляла Рубрика, дослідження показали, що штучний інтелект зазнає невдачі в граматиці.
Зазначимо, що нині також багато країн намагаються пристосувати ШІ у військових цілях. Також штучний інтелект може допомогти в гуманітарному розмінуванні території України.
"Рубрика" спільно з грузинським мовником "Радіо Марнеулі" у транскордонній співпраці розповідає про життя українців у… Читати більше
У російській федерації влада Бєлгородської області заявила, що з-під обваленого будинку в Бєлгороді дістали 15… Читати більше
За останній час Україна перехопила менше ворожих ракет, оскільки росія збільшує кількість атак та застосовує… Читати більше
На тимчасово захопленій окупантами території України злетів у повітря автомобіль російського депутата від "Єдиної Росії".… Читати більше
Комітет з юридичних питань парламенту Грузії у третьому читанні стрімко підтримав скандальний законопроєкт про "іноагентів".… Читати більше
У Литві за результатами підрахунку голосів на переважній більшості дільниць у другий тур президентських виборів… Читати більше
Цей сайт використовує Cookies.