StudyEnglishWords

3#

Дэймон Хоровиц требует «операционную систему морали» - видеоролик

Изучайте английский язык с помощью параллельных субтитров ролика "Дэймон Хоровиц требует «операционную систему морали»". Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь. Всего 353 книги и 1726 познавательных видеороликов в бесплатном доступе.

страница 2 из 8  ←предыдущая следующая→ ...

00:01:57
I'm here to talk about what we should do.
Я здесь, чтобы поговорить о том, что мы должны делать.
What's the right thing to do?
Как поступать правильно?
Now I see some puzzled looks
Теперь я вижу вопросительные взгляды:
like, "Why are you asking us what's the right thing to do?
«Почему вы нас спрашиваете, как поступать правильно?
We're just building this stuff. Somebody else is using it."
Мы всего-то конструируем все эти штуки. Используются-то они кем-то другим».
00:02:13
Fair enough.
В принципе, правильно.
But it brings me back.
Но это напоминает мне прошлое.
I think about World War II --
Я думаю о Второй Мировой Войне —
some of our great technologists then,
о некоторых из наших великих изобретателей,
some of our great physicists,
некоторых из наших великих физиков,
00:02:24
studying nuclear fission and fusion --
изучавших ядерный распад и синтез —
just nuclear stuff.
просто всякие ядерные штуки.
We gather together these physicists in Los Alamos
Мы собрали всех этих физиков в Лос-Аламосе,
to see what they'll build.
чтобы посмотреть, что же они создадут.
We want the people building the technology
Мы хотим, чтобы люди, создающие технологию,
00:02:37
thinking about what we should be doing with the technology.
думали о том, как мы должны обращаться с технологией.
So what should we be doing with that guy's data?
Как же нам быть с информацией об этом парне?
Should we be collecting it, gathering it,
Должны ли мы её накапливать, собирать,
so we can make his online experience better?
чтобы обслуживать его онлайн ещё лучше?
So we can make money?
Чтобы заработать денег?
00:02:52
So we can protect ourselves
Чтобы защитить себя,
if he was up to no good?
если добра от него ждать не приходится?
Or should we respect his privacy,
Или же мы должны уважать его личную жизнь,
protect his dignity and leave him alone?
защищать достоинство и оставить его в покое?
Which one is it?
Что выбрать?
00:03:06
How should we figure it out?
Как в этом разобраться?
I know: crowdsource. Let's crowdsource this.
Я знаю: коллективное решение. Давай решим это коллективно.
So to get people warmed up,
Чтобы люди разогрелись,
let's start with an easy question --
начнём с простого вопроса —
something I'm sure everybody here has an opinion about:
что-нибудь такое, насчёт чего у каждого есть мнение:
00:03:20
iPhone versus Android.
iPhone против Android.
Let's do a show of hands -- iPhone.
Поднимите руки — iPhone.
Uh huh.
О-о-го.
Android.
Android.
You'd think with a bunch of smart people
Кто бы подумал, что с таким количеством умных людей
00:03:32
we wouldn't be such suckers just for the pretty phones.
мы будем так падки на красивые телефоны.
(Laughter)
(Смех)
Next question,
Следующий вопрос,
a little bit harder.
чуть посложнее.
Should we be collecting all of that guy's data
Должны ли мы накапливать всю информацию об этом парне,
00:03:42
to make his experiences better
чтобы лучше его обслуживать
and to protect ourselves in case he's up to no good?
и защищать себя, когда он задумал что-то плохое?
Or should we leave him alone?
Или же мы должны оставить его в покое?
Collect his data.
Собирать информацию.
Leave him alone.
Оставить в покое.
00:03:57
You're safe. It's fine.
Вы в безопасности. Всё нормально.
(Laughter)
(Смех)
Okay, last question --
Хорошо, последний вопрос —
harder question --
вопрос посложнее —
when trying to evaluate
при оценке,
00:04:08
what we should do in this case,
что мы должны делать в этом случае,
should we use a Kantian deontological moral framework,
должны ли мы использовать деонтологическую мораль Канта,
or should we use a Millian consequentialist one?
или же консеквенциальную Милля?
Kant.
Кант.
Mill.
Милль.
00:04:26
Not as many votes.
Не так уж много голосов.
(Laughter)
(Смех)
Yeah, that's a terrifying result.
Да уж, устрашающий результат.
Terrifying, because we have stronger opinions
Устрашающий, потому что у нас более определённое мнение
about our hand-held devices
о наших мобильных устройствах,
00:04:41
than about the moral framework
нежели о моральных принципах,
скачать в HTML/PDF
share