Как создать ИИ, который будет помогать, а не вредить людям. Margaret Mitchell - видеоролик
Изучение английского языка с помощью параллельных субтитров ролика "Как создать ИИ, который будет помогать, а не вредить людям".
Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь.
Всего 828 книг и 2765 познавательных видеороликов в бесплатном доступе.
страница 2 из 3 ←предыдущая следующая→ ...
00:02:22
and thought it was something
worth remarking on positively.
и подумал, что это заслуживает
позитивной оценки.
And part of why it was doing this
Отчасти он сделал это,
was because most
of the images I had given it
потому что большинство изображений,
которые я давала ему,
were positive images.
были позитивными.
That's because people
tend to share positive images
Потому что люди склонны делиться
позитивными изображениями,
00:02:36
when they talk about their experiences.
когда рассказывают о своём опыте.
When was the last time
you saw a selfie at a funeral?
Когда вы в последний раз
видели селфи на похоронах?
I realized that,
as I worked on improving AI
Я осознала, что, совершенствуя
искусственный интеллект,
task by task, dataset by dataset,
задачу за задачей,
массив данных за массивом,
that I was creating massive gaps,
я создала огромные бреши,
00:02:53
holes and blind spots
in what it could understand.
дыры и слепые пятна в том,
что он мог понимать.
And while doing so,
И делая это,
I was encoding all kinds of biases.
я закодировала все
возможные виды предубеждений.
Biases that reflect a limited viewpoint,
Предубеждений, отражающих
ограниченное видение,
limited to a single dataset --
ограниченное единым набором данных.
00:03:09
biases that can reflect
human biases found in the data,
Пробелы, которые отражают человеческие
предубеждения, закодированные в данных,
such as prejudice and stereotyping.
такие как предвзятость и стереотипы.
I thought back to the evolution
of the technology
Я подумала об эволюции технологий,
that brought me to where I was that day --
которая привела меня к тому,
где я оказалась тогда, —
how the first color images
как первые цветные фотографии
00:03:26
were calibrated against
a white woman's skin,
были откалиброваны по коже белых женщин,
meaning that color photography
was biased against black faces.
а значит, цветные фотографии были
не приспособлены к тёмным лицам.
And that same bias, that same blind spot
И это же предубеждение,
это же слепое пятно
continued well into the '90s.
продолжалось и в 90-е.
And the same blind spot
continues even today
И это же слепое пятно
мы имеем и сегодня
00:03:42
in how well we can recognize
different people's faces
в том, насколько хорошо мы можем
узнавать разнообразные человеческие лица
in facial recognition technology.
в технологии распознавания лиц.
I though about the state of the art
in research today,
Я думала о новейших исследованиях,
where we tend to limit our thinking
to one dataset and one problem.
где мы склонны ограничивать свое мышление
одним набором данных и одной проблемой.
And that in doing so, we were creating
more blind spots and biases
И делая это, мы создавали всё больше
слепых пятен и предубеждений,
00:04:02
that the AI could further amplify.
которые ИИ смог развить дальше.
I realized then
that we had to think deeply
Я поняла, что нужно больше думать о том,
about how the technology we work on today
looks in five years, in 10 years.
как технологии, с которыми мы работаем
сегодня, будут выглядеть через 5 и 10 лет.
Humans evolve slowly,
with time to correct for issues
Человечество эволюционирует медленно,
со временем исправляя проблемы
in the interaction of humans
and their environment.
во взаимодействии людей
и окружающей среды.
00:04:21
In contrast, artificial intelligence
is evolving at an incredibly fast rate.
Искусственный интеллект, напротив,
эволюционирует с невероятной скоростью.
And that means that it really matters
И значит, действительно важно
that we think about this
carefully right now --
внимательно подумать прямо сейчас,
that we reflect on our own blind spots,
что мы прячем в своих слепых пятнах,
our own biases,
в своих предубеждениях,
00:04:37
and think about how that's informing
the technology we're creating
как это отражается на технологиях,
которые мы создаём,
and discuss what the technology of today
will mean for tomorrow.
и обсудить, что технологии настоящего
будут значить для будущего.
CEOs and scientists have weighed in
on what they think
Топ-менеджеры и учёные
всего мира говорят о том,
Для просмотра параллельного текста полностью залогиньтесь или зарегистрируйтесь