Искусственный интеллект на практике. Бернард Марр
несколько лет назад. Сегодня всем известны Google Home, Amazon Alexa и Apple Siri.
Поначалу обработка естественного языка в пользовательских устройствах впечатляла, особенно по сравнению с недавним прошлым, но обнаружились ее ограничения. ИИ хорошо понимает только элементарные и короткие предложения и команды. Попробуйте поговорить с ним, как с обычным человеком, – и он сразу запутается.
По человеческим меркам нынешний ИИ – младенец. А если говорить на языке науки, ему не хватает данных. Но он быстро растет, например благодаря технологии Google Duplex. Она поддержит и довольно неформальную беседу, потому что обучена для конкретных ситуаций, и алгоритмы собирают только касающиеся этих событий данные. Google демонстрирует прогресс Duplex на примере записи в парикмахерскую по телефону[24]. В таких узких и контролируемых случаях технология ведет себя почти по-человечески. Для этого инженеры Google запрограммировали свойственные нашей речи междометия: машина вставляет в разговор «эм-м», «ах» и «угу», когда сочтет это уместным.
Компьютер можно научить говорить на одном языке, а любой другой он освоит сам с помощью машинного обучения. По этому принципу работает переводчик Google, раскладывая язык на основные составляющие. Глубокие нейронные сети Google Translate постоянно оттачивают алгоритмы, изучая новые языки, и так совершенствуются в точности переводов. Google внедрила эту функцию в наушники Pixel Buds на базе Google Assistant, и пользователи могут слушать трансляцию перевода почти в режиме реального времени[25].
У Waymo – подразделения Alphabet, которое разрабатывает беспилотные автомобили, – одна из самых развитых платформ в мире. Недавно компания стала первым коммерческим перевозчиком[26].
Alphabet пошел еще дальше: автомобили полностью автоматизированы, в них даже нет руля и педалей. Они созданы для новой урбанистической эпохи, в которую быть владельцем автомобиля – дорого и неудобно. Сервис Waymo ориентирован на частный извоз: по прогнозам компании, такой формат будет основным в умных городах будущего.
В машинном обучении Google использует алгоритмы естественного языка, когда автоматически записываются субтитры для слабослышащих (или предпочитающих тишину) людей на сервисе потокового видео YouTube. Как и с речью, для идентификации звуков (аплодисментов, музыки) система использует глубокие нейронные сети и автоматически выводит текст: он сообщает зрителю, что происходит[27].
Технология ИИ Alphabet (в частности на базе глубокого обучения) широко применяется в медицине. Из недавних новшеств стоит упомянуть офтальмологическую диагностику. Для обучения алгоритмов используются снимки оптической когерентной томографии – инфракрасные 3D-изображения глазного яблока[28]. Система основана на двух алгоритмах глубокого обучения. Один строит подробную схему устройства глаза и определяет, что нормально, а что может быть симптомом болезни, например возрастной
24
Google, Google Duplex: An AI System for Accomplishing Real-World Tasks Over the Phone: https://ai.googleblog.com/2018/05/duplex-aisystem-for-natural-conversation.html
25
The Verge, The Pixel Buds’ translation feature is coming to all headphones With Google Assistant: https://www.theverge.com/circuitbreaker/2018/10/15/17978298/pixel-buds-google-translate-google-assistantheadphones
26
Financial Times, Alphabet’s Waymo begins charging passengers for self-driving cars: https://www.ft.com/content/7980e98e-d8b6-11e8-a854-33d6f82e62f8
27
Google, Adding Sound Effect Information to YouTube Captions: https://ai.googleblog.com/2017/03/adding-sound-effect-information-to.html
28
Nature, Clinically applicable deep learning for diagnosis and referral in retinal disease: https://www.nature.com/articles/s41591-018-0107-6