3#

Опасность ИИ более странная, чем вы думаете. Janelle Shane - видеоролик

Изучайте английский язык с помощью параллельных субтитров ролика "Опасность ИИ более странная, чем вы думаете". Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь. Всего 808 книг и 2505 познавательных видеороликов в бесплатном доступе.

страница 4 из 5  ←предыдущая следующая→ ...

00:06:21
And there was a group of researchers
Одна группа исследователей
who trained an AI to identify this tench in pictures.
обучила ИИ распознавать линя на фотографиях.
But then when they asked it
Но когда они спросили,
what part of the picture it was actually using to identify the fish,
какие части изображений ИИ использовал, чтобы распознать эту рыбу,
here's what it highlighted.
вот что они получили в ответ.
00:06:35
Yes, those are human fingers.
Да, это человеческие пальцы.
Why would it be looking for human fingers
Но с какой стати ИИ ищет на изображении пальцы,
if it's trying to identify a fish?
пытаясь распознать рыбу?
Well, it turns out that the tench is a trophy fish,
Оказывается, линь — трофейная рыба,
and so in a lot of pictures that the AI had seen of this fish
и на множестве фотографий, которые видел ИИ
00:06:49
during training,
в ходе обучения,
the fish looked like this.
рыба выглядела вот так.
(Laughter)
(Смех)
And it didn't know that the fingers aren't part of the fish.
И ИИ не знал, что пальцы не относятся к рыбе.
So you see why it is so hard to design an AI
Так что теперь вы понимаете, почему так сложно разработать ИИ,
00:07:02
that actually can understand what it's looking at.
который сможет понять, что он видит.
And this is why designing the image recognition
И поэтому распознавание изображений в беспилотных автомобилях
in self-driving cars is so hard,
так сложно спроектировать.
and why so many self-driving car failures
И так много сбоев в них происходит из-за того,
are because the AI got confused.
что ИИ неправильно распознал объекты.
00:07:16
I want to talk about an example from 2016.
Например, автомобильная катастрофа,
There was a fatal accident when somebody was using Tesla's autopilot AI,
которая произошла в 2016 году из-за того,
but instead of using it on the highway like it was designed for,
что водитель использовал автопилот Теслы в городе,
they used it on city streets.
хотя он был разработан для передвижения по трассе.
And what happened was,
Вот, что произошло:
00:07:32
a truck drove out in front of the car and the car failed to brake.
перед машиной выехал грузовик, но машина не затормозила.
Now, the AI definitely was trained to recognize trucks in pictures.
Конечно, ИИ был обучен распознавать грузовики на изображениях.
But what it looks like happened is
Но, судя по всему,
the AI was trained to recognize trucks on highway driving,
ИИ был обучен распознавать их при движении по шоссе,
where you would expect to see trucks from behind.
где грузовики можно увидеть только сзади.
00:07:49
Trucks on the side is not supposed to happen on a highway,
Вид на грузовики сбоку обычно не встречается на шоссе.
and so when the AI saw this truck,
Так что когда ИИ увидел этот грузовик,
it looks like the AI recognized it as most likely to be a road sign
судя по всему, он распознал его как дорожный знак
and therefore, safe to drive underneath.
и поэтому решил, что под ним можно безопасно проехать.
Here's an AI misstep from a different field.
Вот ещё одна ошибка ИИ из другой области.
00:08:06
Amazon recently had to give up on a résumé-sorting algorithm
Недавно Amazon отказался от использования алгоритма отбора резюме,
that they were working on
который они разрабатывали,
when they discovered that the algorithm had learned to discriminate against women.
когда они выяснили, что алгоритм дискриминирует женщин.
What happened is they had trained it on example résumés
Из-за того, что алгоритм обучался на выборке резюме
of people who they had hired in the past.
кандидатов, которых нанимали в прошлом,
скачать в HTML/PDF
share