3#

Можем ли мы создать ИИ и сохранить над ним контроль? Sam Harris - видеоролик

Изучайте английский язык с помощью параллельных субтитров ролика "Можем ли мы создать ИИ и сохранить над ним контроль?". Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь. Всего 827 книг и 2706 познавательных видеороликов в бесплатном доступе.

Сверхразумный искусственный интеллект внушает страх? Так и должно быть, говорит нейробиолог и философ Сэм Харрис, и не только в гипотетической перспективе. Мы неминуемо создадим машины со сверхчеловеческими способностями, говорит Харрис, но мы ещё не решили проблемы, связанные с созданием того, что, возможно, станет обращаться с нами так же, как мы обращаемся с муравьями.

страница 1 из 3  ←предыдущая следующая→ ...

00:00:13
I'm going to talk about a failure of intuition
Я хочу поговорить о неспособности к интуиции,
that many of us suffer from.
от которой страдают многие из нас.
It's really a failure to detect a certain kind of danger.
Фактически, это неспособность распознавать определённую опасность.
I'm going to describe a scenario
Я опишу сценарий,
that I think is both terrifying
который назвал бы одновременно пугающим
00:00:26
and likely to occur,
и вполне вероятным,
and that's not a good combination,
и это не хорошее сочетание,
as it turns out.
как выясняется.
And yet rather than be scared, most of you will feel
Всё же вместо того, чтобы пугаться, многие подумают,
that what I'm talking about is kind of cool.
что то, о чём я говорю, здóрово.
00:00:37
I'm going to describe how the gains we make
Я расскажу, как наши достижения
in artificial intelligence
в развитии искусственного интеллекта
could ultimately destroy us.
могут в итоге нас уничтожить.
And in fact, I think it's very difficult to see how they won't destroy us
По-моему, вообще трудно понять, как они могут нас не уничтожить
or inspire us to destroy ourselves.
или не побудить к самоуничтожению.
00:00:49
And yet if you're anything like me,
Всё же, если вы в чём-то схожи со мной,
you'll find that it's fun to think about these things.
то вам нравится думать о таких вещах.
And that response is part of the problem.
И эта реакция — часть проблемы.
OK? That response should worry you.
Эта реакция должна вас беспокоить.
And if I were to convince you in this talk
И если бы мне надо было убедить вас,
00:01:02
that we were likely to suffer a global famine,
что нам грозит всемирный голод
either because of climate change or some other catastrophe,
из-за изменения климата или некой другой катастрофы
and that your grandchildren, or their grandchildren,
и что ваши внуки или их внуки,
are very likely to live like this,
вероятно, будут жить вот так,
you wouldn't think,
вы бы не подумали:
00:01:17
"Interesting.
«Интересно.
I like this TED Talk."
Хорошее выступление».
Famine isn't fun.
В голоде нет ничего забавного.
Death by science fiction, on the other hand, is fun,
Смерть от научной фантастики, с другой стороны, — это круто,
and one of the things that worries me most about the development of AI at this point
и меня очень сильно беспокоит на данном этапе развития ИИ
00:01:31
is that we seem unable to marshal an appropriate emotional response
наша неспособность к выстраиванию подобающей эмоциональной реакции
to the dangers that lie ahead.
на ожидающие нас опасности.
I am unable to marshal this response, and I'm giving this talk.
Я сам не могу выстроить эту реакцию, потому и говорю об этом.
It's as though we stand before two doors.
Как будто мы стои́м перед двумя дверьми.
Behind door number one,
За первой дверью
00:01:46
we stop making progress in building intelligent machines.
у нас останавливается прогресс в создании интеллектуальных устройств.
Our computer hardware and software just stops getting better for some reason.
Аппаратное и программное обеспечение почему-то больше не становится лучше.
Now take a moment to consider why this might happen.
Теперь на секунду задумайтесь, почему это может произойти.
I mean, given how valuable intelligence and automation are,
Ведь учитывая, насколько ценны интеллект и автоматизация,
we will continue to improve our technology if we are at all able to.
мы продолжим совершенствовать технологии, пока способны на это.
00:02:05
What could stop us from doing this?
Что может нас остановить?
A full-scale nuclear war?
Полномасштабная ядерная война?
A global pandemic?
Глобальная пандемия?
An asteroid impact?
Падение астероида?
Justin Bieber becoming president of the United States?
Избрание Джастина Бибера президентом США?

Для просмотра параллельного текста полностью залогиньтесь или зарегистрируйтесь

скачать в HTML/PDF
share

←предыдущая следующая→ ...