4#

У вашей поисковой системы есть моральные предубеждения. Andreas Ekström - видеоролик

Изучайте английский язык с помощью параллельных субтитров ролика "У вашей поисковой системы есть моральные предубеждения". Метод интервальных повторений для пополнения словарного запаса английских слов. Встроенный словарь. Всего 564 книги и 1815 познавательных видеороликов в бесплатном доступе.

страница 2 из 5  ←предыдущая следующая→ ...

00:02:19
and acknowledge them and say, "Yes, these are all true."
утвердить их и сказать: «Да, они все отражают реальность».
But because of who I am,
Но в зависимости от того, какой я,
young or old, black or white, gay or straight,
молодой или старый, чёрный или белый, гей или нет,
I will value them differently.
я оценю их по-разному.
And I will say, "Yes, this is true,
И я скажу: «Да, это правда,
00:02:29
but this is more important to me than that."
но вот это для меня важнее, чем это».
And this is where it becomes interesting,
Именно в этом кроется любопытная деталь,
because this is where we become human.
потому что мы начинаем думать как люди.
This is when we start to argue, to form society.
Поэтому мы начинаем спорить и формировать общество.
And to really get somewhere, we need to filter all our facts here,
И чтобы до чего-то дойти, нам нужно отфильтровать все факты
00:02:42
through friends and neighbors and parents and children
через взгляды друзей и соседей, родителей и детей,
and coworkers and newspapers and magazines,
коллег, газет и журналов,
to finally be grounded in real knowledge,
чтобы в конце прийти к настоящему знанию,
which is something that a search engine is a poor help to achieve.
в чём поисковик нам вряд ли поможет.
So, I promised you an example just to show you why it's so hard
Я обещал вам пример, чтобы объяснить,
00:03:01
to get to the point of true, clean, objective knowledge --
как непросто прийти к верному и объективному знанию,
as food for thought.
просто чтобы вы задумались об этом.
I will conduct a couple of simple queries, search queries.
Я сделаю несколько поисковых запросов.
We'll start with "Michelle Obama,"
Сперва попробуем набрать «Мишель Обама»,
the First Lady of the United States.
первая леди США.
00:03:16
And we'll click for pictures.
Найдём её изображения.
It works really well, as you can see.
Видно, что поиск работает хорошо.
It's a perfect search result, more or less.
Это идеальный результат, более или менее.
It's just her in the picture, not even the President.
На изображениях только она, без появления президента.
How does this work?
Как это работает?
00:03:29
Quite simple.
Очень просто.
Google uses a lot of smartness to achieve this, but quite simply,
Гугл использует много инструментов для лучших результатов,
they look at two things more than anything.
но в целом важны две составляющие.
First, what does it say in the caption under the picture on each website?
Первое — как фотографию подписывают на разных сайтах.
Does it say "Michelle Obama" under the picture?
Есть ли в подписи «Мишель Обама»?
00:03:43
Pretty good indication it's actually her on there.
Это верный показатель, что это она на изображении.
Second, Google looks at the picture file,
Второе — Гугл смотрит на сам файл изображения,
the name of the file as such uploaded to the website.
на имя самого файла, загруженного на сайт.
Again, is it called "MichelleObama.jpeg"?
Тот же принцип, назван ли файл «МишельОбама.jpeg»?
Pretty good indication it's not Clint Eastwood in the picture.
Это ещё один верный признак, что на нём нет Клинта Иствуда.
00:03:57
So, you've got those two and you get a search result like this -- almost.
На этих двух пунктах базируется результат, похожий на тот, что я показал.
Now, in 2009, Michelle Obama was the victim of a racist campaign,
В 2009 году Мишель Обама стала жертвой расистской агитации,
where people set out to insult her through her search results.
когда люди хотели оскорбить её с помощью поисковых результатов.
There was a picture distributed widely over the Internet
В интернете широко распространяли фотографию,
скачать в HTML/PDF
share