Тім О’Райлі - ХЗ. Хто знає, яким буде майбутнє
Шрифт:
Інтервал:
Добавити в закладку:
Ще один спосіб боротьби зі схильністю читачів підтверджувати власні переконання матеріалами у ЗМІ — щось на зразок фічі фейсбуку «Схожі статті». Таким чином можна уникнути небажаного блокування матеріалу. Якщо різноманітні алгоритмічні перевірки виявили в публікації упередження, можна автоматично добирати до такого матеріалу посилання на авторитетний сайт, що оскаржує ту інформацію, або на першоджерело. Звісно, неможливо змусити користувачів читати ті джерела, але позначка про потенційну фальшивку або перекручену інформацію, а також підказка про альтернативну точку зору можуть зупинити невпинний потік репостів. Однак це має відбуватися надзвичайно швидко, поки матеріал не розійшовся в інтернеті.
Крім того, підозрілі матеріали можна зробити менш пріоритетними: показувати внизу новинної стрічки або рідше відображати. Google постійно це робить, ранжуючи результати пошуку. Ідея про схожу функцію на фейсбуку спричиняє суперечки, але ж соцмережа теж ранжує пости: популярніші виринають у стрічці частіше, ніж свіжіші; нам підкидають новини, схожі на ті, де ми натискали «Поділитися» чи «Подобається»; ба більше, особливо популярні матеріали з’являються в стрічці неодноразово. Коли на фейсбуку матеріали перестали відображатися в хронологічному порядку, з’явилося алгоритмічне регулювання новинної стрічки. Тож час додати алгоритм для верифікації джерела та інших сигналів про «правдивість» інформації.
Алгоритм не повинен дошукуватися правди — достатньо обґрунтованого сумніву, як у правосудді. Особливо якщо покарання полягає лише в тому, що фальшивку не вдасться просувати в мережі. Інтернет-платформи не зобов’язані просувати контент заради свободи слова. Фейкові новини затесалися в мережу через невдалі алгоритми, які вивели в пріоритет емоційні чинники й політичні вподобання.
Google і Facebook постійно вигадують і випробовують нові алгоритми. Звісно, не обходиться без суб’єктивних уявлень. Та на основі цих уявлень розробляють систему, а не конкретні застосування. Розробка дієвого алгоритму для пошуковика або новинної стрічки нагадує проектування літака — інженери дбають, щоб апарат полетів, а не вирішують куди.
Проектувальники ставлять перед собою прості завдання: літак має триматися в повітрі, летіти швидше, використовувати менше палива. Можна цілеспрямовано випробовувати зміни в проекті, поки не досягли потрібного результату. У пошуковиків багато аналогічних проблем: знайти найвигіднішу ціну, вибрати найавторитетніше джерело інформації з певної теми, знайти той чи інший документ. Трапляється й багато неоднозначних завдань. Коли користувачі отримують, що хочуть, вони щасливі, а разом із ними й рекламодавці. Бажання користувачів знайти відповідь і повертатися до інших занять відповідає основному завданню пошуковиків — найдоцільніші результати пошуку. А от пріоритет Facebook — активність користувачів — повів соцмережу в хибному напрямку. Активність і тривале користування сайтом сприяє рекламодавцям, та аж ніяк не користувачам чи охочим знати «правду».
Фахівці з аеродинаміки і бортінженери теж роблять припущення, які треба перевіряти та вносити відповідні корективи. Майбутнє аерокосмічної індустрії визначив знаменний випадок, що трапився в період, коли знадобився кардинально новий підхід до проблеми втоми металу. Коли зароджувалася комерційна авіація, 1953 року, «королем» повітряного простору мав стати британський реактивний авіалайнер de Havilland DH.106 «Комета». Та раптом одна з «Комет» розбилася — здавалося, без причини. Керівництво авіалінії пояснило жахливу катастрофу помилкою пілота і погодними умовами. Рік потому впав другий літак, і тоді вже небо було чистим. Усі літаки моделі не випускали з ангара протягом двох місяців, поки тривало ретельне розслідування. Зрештою, виробник упевнено повідомив, що конструкцію літаків змінено з урахуванням «абсолютно всіх можливих причин катастрофи, які тільки можна уявити». Та за кілька днів після заяви впав третій літак, і стало очевидно, що «уява» компанії de Havilland обмежена. У молодого американського інженера виникла краща ідея, і тоді майбутнє комерційних перельотів перебрала до рук компанія Boeing. Викладач фізики Техаського університету Майкл Мардер, який власне й звернув мою увагу на цю історію, зазначив: «Розслідування зосередили на тріщинах. Та їх не можна було позбутися. Тріщини були всюди, по всій конструкції, причому зовсім маленькі й непомітні. Неможливо спроектувати досконалу конструкцію. Вона дефектна за замовченням. Тому завдання інженерів — не розробити літальний апарат без тріщин, а подбати, щоб він їх витримував»276.
Так само алгоритми треба розробляти не для того, щоб позбутися всіх помилок, а щоб забезпечити результати, які витримують помилки. Питання не в тому, чи варто розробникам Facebook регулювати новинну стрічку, а в тому — як.
Компанія de Havilland марно намагалася сконструювати літак із достатньо міцних матеріалів, що не зазнають тріщин і руйнувань. А от інженери Boeing зрозуміли, що тріщини в конструкції допустимі. Головне — щоб матеріал не розтріскувався далі, від чого й стаються катастрофи. Таке ж завдання у Facebook. Мета розробників — зробити так, щоб літак летів швидше, але безпечніше. Це означає, що треба вдосконалювати алгоритми — навчати електронних працівників та управляти їхньою роботою, а не викидати їх у мережу й очікувати, що досить і звичайного нагляду. Після нещасних випадків із «Кометами» компанії de Havilland в авіаіндустрії ніхто не опускав руки. Людство не повернулося до пропелерів і не відмовилося від комерційної авіації з реактивними двигунами. Алгоритми Facebook створювалися заради найоптимальнішої активності користувачів, а тепер їх треба вдосконалити, оптимізувавши правдивість контенту.
Великий плюс у тому, що, поки фахівці з’ясовують, як домогтися правдивого контенту і не втратити активність користувачів, Facebook може зробити важливі відкриття. Що складніші в нас завдання, то більше ми розвиваємося й ростемо.
Прориву справді варто сподіватися, судячи з того, про що йдеться в маніфесті Марка Цукерберґа «Будівництво глобальної спільноти» (Building Global Community), опублікованому в лютому 2017 року. Засновник Facebook розповів про кардинально новий підхід до проблеми. Марк лише побіжно згадав про фейкові новини і наголосив, що нові інструменти штучного інтелекту вже надсилають третину постів, які переглядає команда Facebook з внутрішнього контролю за контентом. (Решту дві третини постів надсилають користувачі фейсбуку). Натомість Марк зосередився на корінні проблеми: занепад соціального капіталу —
Увага!
Сайт зберігає кукі вашого браузера. Ви зможете в будь-який момент зробити закладку та продовжити читання книги «ХЗ. Хто знає, яким буде майбутнє», після закриття браузера.