Про це пише Wired, пише Рубрика.
У чому проблема?
У метрополітенах часто реєструють злочини:
Також у метрополітенах є декілька аспектів виникнення позаштатних ситуацій, серед яких дотримання та виконання Правил користування метрополітеном пасажирами та людський чинник зі сторони працівників метрополітену.
Проте безпека пасажирів є пріоритетним завданням працівників метрополітенів.
Яке рішення?
Тому на одній зі станцій Лондонського метрополітену камери відеоспостереження поєднали зі штучним інтелектом для відстеження порушень правил користування метрополітеном.
Як це працює?
З жовтня 2022 року до кінця вересня 2023 року транспортна компанія TfL, яка керує Лондонською мережею метро, тестувала алгоритми ШІ для розпізнавання подій на відео. Тестування проходило на станції Willesden Green, що на північному заході міста.
Програмне забезпечення поєднали з прямою трансляцією камер відеоспостереження, щоб спробувати виявляти агресивну поведінку та розмахування зброєю чи ножами, а також шукати людей, які падають на колії метро або ухиляються від оплати проїзду.
Це перший випадок у Великій Британії, коли транспортний орган об'єднав штучний інтелект і відео в реальному часі для створення сповіщень, які отримував персонал станції.
Під час випробування було видано понад 44 000 сповіщень, 19 000 — доставлено в режимі реального часу.
Найбільше попереджень видали щодо людей, які ухилялися від оплати за проїзд — 26 000.
За даними TfL, збитки від несплати проїзду сягають до 130 млн фунтів стерлінгів (понад 150 млн євро) на рік.
Голова служби громадської безпеки TfL Менді МакГрегор каже, що на станції не було жодних табличок, які б згадували про випробування інструментів стеження ШІ, щоб пасажири поводилися природно.
Значна частина аналізу була спрямована на те, щоб допомогти персоналу зрозуміти, що відбувається на станції, і оперативно реагувати на інциденти.
Система надіслала:
Видання пише, що ШІ припускався помилок під час випробувань.
Наприклад, позначав дітей, які слідували за своїми батьками через турнікети, як потенційних неплатників. Офіцери поліції також допомагали з налаштуванням системи. Поліціянти тримали мачете та рушницю в полі зору камер, щоб допомогти системі краще розпізнавати зброю.
Під час усіх тестувань зображення облич людей були розмиті, а дані зберігалися максимум 14 днів. Однак через шість місяців від початку тестувань системи ці дані вирішили зберігати довше — через велику кількість сповіщень, на які не встигали реагувати працівники.
Тестування також мало на меті з'ясувати, чи може штучний інтелект виявити велосипеди та скутери.
"ШІ не міг відрізнити велосипед у складеному стані від звичайного, а також електросамокат від дитячого самокату", — йдеться в статті.
Нагадаємо, в одній з лікарень Івано-Франківська штучний інтелект допомагатиме лікарям аналізувати рентгени грудної клітки пацієнтів.
Також повідомлялось, що ошийник-комунікатор для котів, який за допомогою штучного інтелекту перекладає звуки тварини у зрозумілу для людини форму, створили українські стартапери. Працює гаджет на зразок фітнес-браслета.
Як повідомляла Рубрика, дослідження показали, що штучний інтелект зазнає невдачі в граматиці.
Зазначимо, що нині також багато країн намагаються пристосувати ШІ у військових цілях. Також штучний інтелект може допомогти в гуманітарному розмінуванні території України.
Японія заявила про непохитну підтримку України в її боротьбі з наслідками війни, включаючи допомогу у… Читати більше
З самого початку широкомасштабного вторгнення росії в Україну Туреччина зробила рішучий крок, який відіграв ключову… Читати більше
У Китаї прокоментували застосування російською федерацією нової балістичної ракети по Україні, закликаючи всі сторони зберігати… Читати більше
У День пам’яті жертв голодоморів, у Києві відбувся Третій Міжнародний саміт з продовольчої безпеки. Держави-учасниці… Читати більше
У ніч на 24 листопада російські загарбники атакували Україну 73 ударними БпЛА типу Shahed та… Читати більше
Цей сайт використовує Cookies.