2#

Как создать ИИ, который будет помогать, а не вредить людям. Margaret Mitchell - видеоролик

Изучайте английский язык с помощью параллельных субтитров ролика "Как создать ИИ, который будет помогать, а не вредить людям". Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь. Всего 827 книг и 2706 познавательных видеороликов в бесплатном доступе.

страница 2 из 3  ←предыдущая следующая→ ...

00:02:22
and thought it was something worth remarking on positively.
и подумал, что это заслуживает позитивной оценки.
And part of why it was doing this
Отчасти он сделал это,
was because most of the images I had given it
потому что большинство изображений, которые я давала ему,
were positive images.
были позитивными.
That's because people tend to share positive images
Потому что люди склонны делиться позитивными изображениями,
00:02:36
when they talk about their experiences.
когда рассказывают о своём опыте.
When was the last time you saw a selfie at a funeral?
Когда вы в последний раз видели селфи на похоронах?
I realized that, as I worked on improving AI
Я осознала, что, совершенствуя искусственный интеллект,
task by task, dataset by dataset,
задачу за задачей, массив данных за массивом,
that I was creating massive gaps,
я создала огромные бреши,
00:02:53
holes and blind spots in what it could understand.
дыры и слепые пятна в том, что он мог понимать.
And while doing so,
И делая это,
I was encoding all kinds of biases.
я закодировала все возможные виды предубеждений.
Biases that reflect a limited viewpoint,
Предубеждений, отражающих ограниченное видение,
limited to a single dataset --
ограниченное единым набором данных.
00:03:09
biases that can reflect human biases found in the data,
Пробелы, которые отражают человеческие предубеждения, закодированные в данных,
such as prejudice and stereotyping.
такие как предвзятость и стереотипы.
I thought back to the evolution of the technology
Я подумала об эволюции технологий,
that brought me to where I was that day --
которая привела меня к тому, где я оказалась тогда, —
how the first color images
как первые цветные фотографии
00:03:26
were calibrated against a white woman's skin,
были откалиброваны по коже белых женщин,
meaning that color photography was biased against black faces.
а значит, цветные фотографии были не приспособлены к тёмным лицам.
And that same bias, that same blind spot
И это же предубеждение, это же слепое пятно
continued well into the '90s.
продолжалось и в 90-е.
And the same blind spot continues even today
И это же слепое пятно мы имеем и сегодня
00:03:42
in how well we can recognize different people's faces
в том, насколько хорошо мы можем узнавать разнообразные человеческие лица
in facial recognition technology.
в технологии распознавания лиц.
I though about the state of the art in research today,
Я думала о новейших исследованиях,
where we tend to limit our thinking to one dataset and one problem.
где мы склонны ограничивать свое мышление одним набором данных и одной проблемой.
And that in doing so, we were creating more blind spots and biases
И делая это, мы создавали всё больше слепых пятен и предубеждений,
00:04:02
that the AI could further amplify.
которые ИИ смог развить дальше.
I realized then that we had to think deeply
Я поняла, что нужно больше думать о том,
about how the technology we work on today looks in five years, in 10 years.
как технологии, с которыми мы работаем сегодня, будут выглядеть через 5 и 10 лет.
Humans evolve slowly, with time to correct for issues
Человечество эволюционирует медленно, со временем исправляя проблемы
in the interaction of humans and their environment.
во взаимодействии людей и окружающей среды.
00:04:21
In contrast, artificial intelligence is evolving at an incredibly fast rate.
Искусственный интеллект, напротив, эволюционирует с невероятной скоростью.
And that means that it really matters
И значит, действительно важно
that we think about this carefully right now --
внимательно подумать прямо сейчас,
that we reflect on our own blind spots,
что мы прячем в своих слепых пятнах,
our own biases,
в своих предубеждениях,
00:04:37
and think about how that's informing the technology we're creating
как это отражается на технологиях, которые мы создаём,
and discuss what the technology of today will mean for tomorrow.
и обсудить, что технологии настоящего будут значить для будущего.
CEOs and scientists have weighed in on what they think
Топ-менеджеры и учёные всего мира говорят о том,

Для просмотра параллельного текста полностью залогиньтесь или зарегистрируйтесь

скачать в HTML/PDF
share