Как вы можете помочь создать атмосферу доверия в интернете. Claire Wardle - видеоролик
Изучение английского языка с помощью параллельных субтитров ролика "Как вы можете помочь создать атмосферу доверия в интернете".
Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь.
Всего 828 книг и 2765 познавательных видеороликов в бесплатном доступе.
страница 3 из 3 ←предыдущая следующая→ ...
00:03:58
we're in trouble.
то мы окажемся в беде.
And this might look like a clear-cut case,
И этот случай может показаться очевидным,
but, actually, most speech isn't.
но чаще всего это не так.
These lines are incredibly
difficult to draw.
И границы невероятно сложно провести.
What's a well-meaning
decision by one person
То, что для одного человека
решение во благо,
00:04:08
is outright censorship to the next.
для другого — явная цензура.
What we now know is that
this account, Texas Lone Star,
Мы знаем, что аккаунт Texas Lone Star
was part of a wider Russian
disinformation campaign,
был частью более широкой
российской кампании по дезинформации,
one that has since been taken down.
который после этого был удалён.
Would that change your view?
Изменило бы это ваш взгляд?
00:04:21
It would mine,
Мой бы изменило,
because now it's a case
of a coordinated campaign
потому что теперь это случай
намеренной кампании
to sow discord.
с целью сеять распри.
And for those of you who'd like to think
А те из вас, кому хотелось бы думать,
that artificial intelligence
will solve all of our problems,
что искусственный интеллект
решит все наши проблемы,
00:04:30
I think we can agree
that we're a long way away
думаю, вы согласитесь,
что нам ещё далеко
from AI that's able to make sense
of posts like this.
до ИИ, который бы смог
осмыслить подобные посты.
So I'd like to explain
three interlocking issues
Я хотела бы объяснить
три взаимосвязанных аспекта,
that make this so complex
которые всё это сильно усложняют,
and then think about some ways
we can consider these challenges.
и затем поразмышлять о том,
как мы можем эти задачи решить.
00:04:45
First, we just don't have
a rational relationship to information,
Во-первых, у нас нет рациональных
взаимоотношений с информацией,
we have an emotional one.
а есть лишь эмоциональные.
It's just not true that more facts
will make everything OK,
И большее количество фактов
ситуацию не улучшит,
because the algorithms that determine
what content we see,
ведь алгоритмы, которые
определяют контент в нашей ленте, —
well, they're designed to reward
our emotional responses.
что ж, они призваны поощрять
наши эмоциональные порывы.
00:05:00
And when we're fearful,
А когда мы напуганы,
oversimplified narratives,
conspiratorial explanations
поверхностная информация,
объяснения заговоров
and language that demonizes others
is far more effective.
и уничижающие других слова
более чем эффективны.
And besides, many of these companies,
Кроме того, у многих из этих компаний
their business model
is attached to attention,
бизнес-модель связана с вниманием,
00:05:14
which means these algorithms
will always be skewed towards emotion.
что означает: эти алгоритмы всегда
будут склоняться в сторону эмоций.
Second, most of the speech
I'm talking about here is legal.
Во-вторых, бóльшая часть высказываний,
о которых я говорю, законны.
It would be a different matter
И было бы совсем другое дело,
if I was talking about
child sexual abuse imagery
если бы я говорила о растлении детей
or content that incites violence.
или о контенте, провоцирующем насилие.
00:05:28
It can be perfectly legal
to post an outright lie.
Публиковать откровенную ложь
может быть совершенно законно.
But people keep talking about taking down
"problematic" or "harmful" content,
Но люди продолжают говорить об удалении
«проблемного» или «вредоносного» контента,
but with no clear definition
of what they mean by that,
причём не давая чёткого
определения тому, о чём говорят,
including Mark Zuckerberg,
включая Марка Цукерберга,
who recently called for global
regulation to moderate speech.
который недавно призывал разработать
единые правила регулирования сети.
00:05:44
And my concern is that
we're seeing governments
И я обеспокоена тем, что у нас на глазах
right around the world
государства по всему миру
rolling out hasty policy decisions
принимают поспешные
политические решения,
that might actually trigger
much more serious consequences
которые могут повлечь намного
более серьёзные последствия
when it comes to our speech.
в отношении свободы слова.
Для просмотра параллельного текста полностью залогиньтесь или зарегистрируйтесь
←предыдущая следующая→ ...