Какие этические решения должен принимать беспилотный автомобиль? Iyad Rahwan - видеоролик
Изучение английского языка с помощью параллельных субтитров ролика "Какие этические решения должен принимать беспилотный автомобиль?".
Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь.
Всего 828 книг и 2768 познавательных видеороликов в бесплатном доступе.
страница 3 из 3 ←предыдущая следующая→ ...
00:05:01
Most people sided with Bentham.
Бо́льшая часть людей выбирает Бентама.
So it seems that people
want cars to be utilitarian,
Кажется, что люди более утилитарны
minimize total harm,
и хотят минимизировать вред,
and that's what we should all do.
и надо этому следовать.
Problem solved.
Проблема решена.
00:05:13
But there is a little catch.
Но есть небольшая загвоздка.
When we asked people
whether they would purchase such cars,
Когда мы спросили людей,
купят ли они такой автомобиль,
they said, "Absolutely not."
они ответили: «Ни за что».
(Laughter)
(Смех)
They would like to buy cars
that protect them at all costs,
Они хотят купить машину,
которая их защитит, что бы ни случилось,
00:05:27
but they want everybody else
to buy cars that minimize harm.
при этом пусть другие покупают
машины, минимизирующие вред.
(Laughter)
(Смех)
We've seen this problem before.
Эта проблема не нова,
It's called a social dilemma.
она называется социальной дилеммой.
And to understand the social dilemma,
И чтобы понять социальную дилемму,
00:05:41
we have to go a little bit
back in history.
вернёмся ранее в историю,
In the 1800s,
в XIX век.
English economist William Forster Lloyd
published a pamphlet
Английский экономист Уильям Фостер Ллойд
опубликовал памфлет,
which describes the following scenario.
описывающий сценарий,
You have a group of farmers --
в котором группа фермеров,
00:05:54
English farmers --
английских фермеров,
who are sharing a common land
for their sheep to graze.
имеет общее поле,
на котором пасутся их овцы.
Now, if each farmer
brings a certain number of sheep --
Если у каждого определённое
количество овец,
let's say three sheep --
скажем, три,
the land will be rejuvenated,
то поле успевает восстановиться,
00:06:05
the farmers are happy,
фермеры довольны,
the sheep are happy,
овцы счастливы,
everything is good.
всё прекрасно.
Now, if one farmer brings one extra sheep,
Если один фермер приведёт
ещё одну овцу,
that farmer will do slightly better,
and no one else will be harmed.
он заживёт чуть лучше, никому не навредив.
00:06:19
But if every farmer made
that individually rational decision,
Но если каждый фермер
примет такое разумное решение,
the land will be overrun,
and it will be depleted
то поле будет переполнено, оно истощится
to the detriment of all the farmers,
в убыток всем фермерам
and of course,
to the detriment of the sheep.
и, конечно, к огорчению овец.
We see this problem in many places:
Такого рода проблема встречается часто,
00:06:37
in the difficulty of managing overfishing,
например черезмерный отлов рыбы
or in reducing carbon emissions
to mitigate climate change.
или сокращение выброса углерода
для предотвращения изменения климата.
When it comes to the regulation
of driverless cars,
Когда речь идёт о регламентах
для беспилотных автомобилей,
the common land now
is basically public safety --
общее поле — это, по сути,
общественная безопасность,
that's the common good --
это общее благо,
00:06:57
and the farmers are the passengers
где фермеры — это пассажиры
or the car owners who are choosing
to ride in those cars.
или владельцы автомобилей,
которые в них ездят.
And by making the individually
rational choice
Если каждый сделает выбор,
рациональный для себя,
of prioritizing their own safety,
приоритизируя собственную безопасность,
they may collectively be
diminishing the common good,
то в целом пострадает общее благо,
00:07:13
which is minimizing total harm.
то есть минимизация общего вреда.
It's called the tragedy of the commons,
Это традиционно называется
traditionally,
«трагедией общин».
but I think in the case
of driverless cars,
Но в случае с беспилотными
автомобилями, я думаю,
the problem may be
a little bit more insidious
проблема более хитрая,
00:07:27
because there is not necessarily
an individual human being
так как необязательно кто-то конкретный
Для просмотра параллельного текста полностью залогиньтесь или зарегистрируйтесь
←предыдущая следующая→ ...