StudyEnglishWords

3#

Можем ли мы создать ИИ и сохранить над ним контроль? Sam Harris - видеоролик

Изучайте английский язык с помощью параллельных субтитров ролика "Можем ли мы создать ИИ и сохранить над ним контроль?". Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь. Всего 298 книг и 1682 познавательных видеоролика в бесплатном доступе.

Сверхразумный искусственный интеллект внушает страх? Так и должно быть, говорит нейробиолог и философ Сэм Харрис, и не только в гипотетической перспективе. Мы неминуемо создадим машины со сверхчеловеческими способностями, говорит Харрис, но мы ещё не решили проблемы, связанные с созданием того, что, возможно, станет обращаться с нами так же, как мы обращаемся с муравьями.

страница 1 из 7  ←предыдущая следующая→ ...

00:00:13
I'm going to talk about a failure of intuition
Я хочу поговорить о неспособности к интуиции,
that many of us suffer from.
от которой страдают многие из нас.
It's really a failure to detect a certain kind of danger.
Фактически, это неспособность распознавать определённую опасность.
I'm going to describe a scenario
Я опишу сценарий,
that I think is both terrifying
который назвал бы одновременно пугающим
00:00:26
and likely to occur,
и вполне вероятным,
and that's not a good combination,
и это не хорошее сочетание,
as it turns out.
как выясняется.
And yet rather than be scared, most of you will feel
that what I'm talking about is kind of cool.
Всё же вместо того, чтобы пугаться, многие подумают,
I'm going to describe how the gains we make
что то, о чём я говорю, здóрово.
00:00:40
in artificial intelligence
Я расскажу, как наши достижения
could ultimately destroy us.
в развитии искусственного интеллекта
And in fact, I think it's very difficult to see how they won't destroy us
могут в итоге нас уничтожить.
or inspire us to destroy ourselves.
По-моему, вообще трудно понять, как они могут нас не уничтожить
And yet if you're anything like me,
или не побудить к самоуничтожению.
00:00:51
you'll find that it's fun to think about these things.
Всё же, если вы в чём-то схожи со мной,
And that response is part of the problem.
то вам нравится думать о таких вещах.
OK? That response should worry you.
И эта реакция — часть проблемы.
And if I were to convince you in this talk
Эта реакция должна вас беспокоить.
that we were likely to suffer a global famine,
И если бы мне надо было убедить вас,
00:01:06
either because of climate change or some other catastrophe,
что нам грозит всемирный голод
and that your grandchildren, or their grandchildren,
из-за изменения климата или некой другой катастрофы
are very likely to live like this,
и что ваши внуки или их внуки,
you wouldn't think,
вероятно, будут жить вот так,
"Interesting.
вы бы не подумали:
00:01:18
I like this TED Talk."
«Интересно.
Famine isn't fun.
Хорошее выступление».
Death by science fiction, on the other hand, is fun,
В голоде нет ничего забавного.
and one of the things that worries me most about the development of AI at this point
Смерть от научной фантастики, с другой стороны, — это круто,
is that we seem unable to marshal an appropriate emotional response
и меня очень сильно беспокоит на данном этапе развития ИИ
00:01:35
to the dangers that lie ahead.
наша неспособность к выстраиванию подобающей эмоциональной реакции
I am unable to marshal this response, and I'm giving this talk.
на ожидающие нас опасности.
It's as though we stand before two doors.
Я сам не могу выстроить эту реакцию, потому и говорю об этом.
Behind door number one,
Как будто мы стои́м перед двумя дверьми.
we stop making progress in building intelligent machines.
За первой дверью
00:01:49
Our computer hardware and software just stops getting better for some reason.
у нас останавливается прогресс в создании интеллектуальных устройств.
Now take a moment to consider why this might happen.
Аппаратное и программное обеспечение почему-то больше не становится лучше.
I mean, given how valuable intelligence and automation are,
Теперь на секунду задумайтесь, почему это может произойти.
we will continue to improve our technology if we are at all able to.
Ведь учитывая, насколько ценны интеллект и автоматизация,
What could stop us from doing this?
мы продолжим совершенствовать технологии, пока способны на это.
00:02:07
A full-scale nuclear war?
Что может нас остановить?
A global pandemic?
Полномасштабная ядерная война?
An asteroid impact?
Глобальная пандемия?
Justin Bieber becoming president of the United States?
Падение астероида?
скачать в HTML/PDF
share

←предыдущая следующая→ ...