Интервью с Валерием Якубовичем

Валерий Якубович занимается исследованиями в области организационного развития и поведения, управления персоналом, лидерства. Его научные интересы касаются роли социальных отношений и сетей в бизнесе, а также их взаимосвязей с результативностью и обменом знаниями в различных группах и организациях. У Валерия есть ряд публикаций в ведущих академических журналах, таких как Organization Science, Harvard Business Review, American Sociological Review и др.

Валерий преподавал в Chicago Booth School of Business (University of Chicago) и Wharton School (University of Pennsylvania). Является профессором бизнес-школы ESSEC и старшим сотрудником Центра исследований занятости в Wharton Business School. Помимо академической деятельности Валерий занимается консультированием компаний и некоммерческих организаций по вопросам инновационных практик управления.

TEI: Валерий, как появилось направление Big Data и какие основные подходы используются сейчас в бизнесе и академической науке?

С развитием компьютерных мощностей у компаний начало появляться огромное количество данных в процессе их повседневной деятельности – данные о клиентах, операциях, сервисах и услугах. Например, компания внедряет ERP-систему с целью повышения эффективности производства и как побочный продукт получает большой массив данных, сбор которых ей ничего не стоил – не потребовал проведения дорогих фокус-групп, качественных интервью и др. Допустим, ERP-система агрегирует данные о сотрудниках: опыт работы до прихода в компанию, показатели результативности, изменение заработной платы, карьерный рост. Возникает вопрос: что делать с этими данными?

Есть два подхода, которые путают даже специалисты по большим данным. Первый подход – традиционный, который отстаивается ведущими бизнес-школами. Для того чтобы провести исследование, необходимо сначала сформулировать цель, задачи, гипотезы исследования, разработать концепции, перевести их в измеряемые переменные, измерить переменные и доказать либо опровергнуть гипотезу. И здесь Big Data выступают в качестве метода проверки гипотез.

Ранее, в силу того что большой массив данных просто невозможно было получить, исследования делались на данных ограниченного числа компаний или небольшого рынка труда. Если посмотреть на лучшие исследования в менеджменте, которые двинули науку вперед, они сделаны как раз в отдельных организациях или на небольших рынках. Возьмем, например, известное исследование Марка Грановеттера, профессора Stanford University, о силе «слабых связей». В 1973 г. он провел исследования инженеров в пригороде Бостона и выяснил, что при поиске работы гораздо более значимым фактором является сила «слабых связей» – социальная сеть за пределами ближайшего круга общения. Что нам говорит пригород Бостона о целом мире, какая связь между бостонскими инженерами и, например, лондонскими банкирами? Почти никакой. Но идея получила широкое распространение, и в дальнейшем уже другие исследователи примеряли ее к другим рынкам и профессиям (я, например, учился у Грановеттера и использовал его теорию в исследовании самарского рынка труда в конце 1990-х).

Начиная с Фредерика Тейлора наука о менеджменте сформулировала огромное количество гипотез на всевозможные темы, и практикам бизнеса будет трудно придумать вопрос, который еще не был изучен в науке, тем более что, как правило, практиков волнуют одни и те же проблемы: как влияет зарплата на производительность? как опыт и образование влияют на результативность? Так вот тестирование существующих теорий на данных конкретной компании и выработка практических решений для бизнеса – это и есть первый подход. Он получил название Evidence-Based Management и становится сейчас популярным в больших корпорациях. Например, Google нанимает аспирантов-социологов, которые могут тестировать, какие теории работают или не работают конкретно для Google. 

Второй подход – это так называемый Data Mining: у нас нет конкретной гипотезы, но есть массивы данных, в которых сокрыта какая-то полезная информация, главное – ее обнаружить. Этот способ больше по душе практикам, а не ученым. Практикам не важны причинно-следственные связи между переменными. Например, одна из исследовательских компаний выяснила, что у оранжевых автомобилей на вторичном рынке в 2 раза меньше шансов быть неисправными. Трудно найти причинно-следственную связь, но для перекупщиков автомобилей эта корреляция существенно облегчает работу. Это так называемая predictive analytics – предсказание будущего поведения объектов на основе выявленных исторических корреляций. Таких корреляций потенциально может быть очень много – как найти ту, которая имеет наибольший эффект? Можно создать модель, учитывающую все возможные корреляции, но, к сожалению, модели с большим количеством переменных плохо работают, и всегда встает вопрос об оптимальном количестве переменных. Если ваши ставки достаточно высоки – например, вы рассылаете рекламные материалы в количестве миллионов штук, получая отдачу в 0,5%, – то, даже увеличив за счет работы с данными (например, сегментируя всех получателей по регионам с более высокой отдачей, полу, возрасту и т. д.) отдачу до 5%, в итоге получите существенный экономический эффект. Но 5%-ный успех в маркетинге не равнозначен успеху, например, в подборе людей, где нужна большая степень уверенности – 80–90%.

Например, видеосервис Netflix в 2006 г. запустил соревнование по улучшению своего алгоритма рекомендации фильмов пользователям. Командам предлагалось улучшить алгоритм как минимум на 10%, победитель получал $1 млн. Конкурс продлился три года, в определенный момент команды начали кооперироваться между собой – стали накладывать модели друг на друга и выяснять, что совпадает, а что – нет. Такой конгломерат команд в итоге смог улучшить алгоритм на 10,6%.

TEI: А какие есть примеры применения этих двух подходов в управлении людьми?

Признанные лидеры в этом направлении – Google, Amazon, Facebook. В сети можно найти видео выступления менеджера департамента People Analytics Google Кэтрин Декас о внутреннем проекте Oxygen по выявлению удачных практик управления людьми на уровне среднего менеджмента. В рамках этого исследования Google проанализировал свои большие данные, но дополнил это опросами сотрудников о том, какой стиль менеджмента им нравится и они считают его эффективным. Для компании стало открытием, что технические специалисты, которые составляют основную часть, ценят в своих руководителях не технические знания и экспертизу, а умение работать с людьми, – ничего удивительно, но для контекста Google это стало откровением. Это пример исследования в парадигме Evidence-Based Management, в котором начальная гипотеза не подтвердилась. Но зато появилась новая гипотеза, которую теперь нужно подтвердить другим исследованием, специально разработанным для этой цели.

Но у того же Google случаются и промахи: в частности, проанализировав большие данные карьерного роста, аналитики пришли к выводу, что единственный фактор, повышающий шансы на продвижение, – это наличие рекомендательного письма от руководителя. Что мы узнали нового? Ничего. Логично, что если работник хорошо работает, то он получает рекомендацию от руководителя и растет по карьерной лестнице. В этом случае рекомендация – это не причина, а маркер.

TEI: К какому из описанных выше подходов вы склоняетесь?

У меня есть идея сочетания обоих подходов: у компании много данных, в литературе по менеджменту – много гипотез. Как, зная собственные данные, понять, какие гипотезы можно проверить? Можно ли создать алгоритм, который, просмотрев твои данные, найдет в базах литературы по менеджменту нужные гипотезы? Это очень перспективное направление, однако, существует еще много преград.

TEI: Какие сложности возникают в применении Big Data?

Помимо размера Big Data обладает еще одной важной особенностью – неструктурированностью информации. Big Data может включат в себя не только цифры и тексты, но и видео, аудиофайлы и т. д. Распознавание информации и ее обработка – огромный технический вызов для data-специалистов. Самые интересные данные, как правило, именно в этих сложных категориях – видео, фото, аудио. Как перевести их в переменные? Как выловить смысловые значения? Это новое направление, которое сейчас развивается. Например, аспиранты MIT создали компанию Sociometric Solutions, которая производит сенсорные приборы, улавливающие различные параметры при общении сотрудников внутри компании: скорость их речи, громкость, тон. Эти данные агрегируются в облаке и, совмещенные с данными о результативности, подсказывают менеджменту, в каких подразделениях компании необходима более продуктивная атмосфера. Впервые эту технологию опробовали в колл-центре Bank of America, проанализировав данные, в Sociometric Solutions предположили, что поощрение некоторых групп сотрудников вместе уходить на перерыв, во время которого они могли бы обсуждать в том числе рабочие моменты, положительно скажется на продуктивности. В результате продуктивность выросла на 15–20%, уровень стресса снизился на 19%, текучесть персонала упала с 40 до 12%. Это хороший пример того, как большие данные могут работать в отношении не только виртуальных коммуникаций (анализируя нашу переписку, письма и т. д.), но и реального физического общения.

TEI: Не нарушает ли использование датчиков границы частной жизни сотрудников?

Безусловно, ведутся дискуссии об этичности методов сбора данных. Вся информация о нас – онлайн-покупки, электронная почта – агрегируется и обрабатывается методами больших данных, с тем чтобы добраться до нас как до потребителей. И как индивидуальные потребители мы бессильны перед этим, мы не знаем, какие сведения о нас используются против нас – чтобы повысить цены в интернет-магазине, при выдаче кредитов. Аналитика больших данных – это мощный аппарат, и нужно понимать, что этично и легально, возможно, кто-то должен взять на себя регулирующую роль в этом вопросе. Особенно если данные касаются людей, их карьер, зарплат. В свою очередь, компании стоят перед искушением использования персональных данных и должны сами принять на себя ограничения, какой информацией и в каком объеме они могут пользоваться.

Есть еще одно ограничение: как только вы измерили какое-то поведение и опубликовали его результаты, объекты нашего исследования, ознакомившись с этими результатами, меняют это поведение, и ваша модель перестает работать. Например, случай с алгоритмом предсказания распространения гриппа, разработанным Google. Алгоритм анализировал поисковые запросы и предсказывал, как эпидемия будет двигаться дальше. Первоначально он работал великолепно, но затем население ознакомилось с прогнозами и в потенциально опасных регионах начало принимать меры, направление распространение гриппа изменилось. Если объекты оценок получают доступ к оценкам, рефлексируют над этой информацией и их ставки высоки (например, речь идет об оценке результативности), то они способны подыграть – и ваша модель станет бесполезной.

TEI: Если компания хочет использовать свои «большие данные», с чего ей лучше начать?

Разумный подход – начать с определения проблемы. Например, текучесть кадров – достаточно распространенная проблема. Как предсказать, кто уволится в ближайшее время? Компания HP провела подобное исследование в 2013 г.: проанализировав данные о зарплатах, ротациях, результативности ушедших и оставшихся сотрудников, команда аналитиков выявила факторы, влияющие на уход, и присвоила каждому из текущих сотрудников Flight Risk Score – оценку вероятности ухода. Этими данными поделились с руководителями сотрудников с наивысшей оценкой, с тем чтобы они приняли меры по мотивации и удержанию этих сотрудников. HP заявила, что в результате компании удалось существенно снизить текучесть персонала. Забавно, что команда аналитиков, разработавшая Flight Risk Score, сама получила очень высокие оценки вероятности ухода

Еще одна распространенная проблема, над которой бьются все HR, – определение образа «идеального сотрудника». Если кто-то обещает вам подобную услугу – уверяю вас, это шарлатанство. Консультанты могут помочь предсказать 50% будущей результативности, это лучше, чем 20%, но принимать решения на данной основе нельзя. На базе огромного количества исследований мы уже знаем три основных критерия успеха (которые предсказывают максимум 50%): это IQ (который легко измерить), уровень сознательности (проверяется по тестам оценки личности) и структурированное интервью. Но это для массовых специальностей, для лидеров это не работает.

TEI: Говорят, Google отказался от структурированных интервью, потому что этот метод не подходит для выявления «суперзвезд»?

«Суперзвезды» – это очень маленькая группа, редкое событие, его невозможно предсказать, для этого просто нет методов. У вас должно быть достаточное количество «исходов» событий, т. е. достаточное число «суперзвезд» в каждой из категорий (разного пола, возраста, образования, опыта), чтобы вы могли понять, какие факторы действительно влияют. Поэтому второй шаг при работе с большими данными – понять, достаточное ли у вас количество нужных данных. Если при помощи Big Data вы пытаетесь предсказать пьянство на рабочем месте, а при этом сталкивались с таким поведением только однажды – ничего не получится.

TEI: Сейчас многие компании сталкиваются с тем, что к ним приходят стартапы, просят дать данные компании и на основе этих данных обещают предоставить интересные выводы. Стала ли Big Data коммерческим продуктом, который можно использовать в управлении людьми?

В управлении людьми – пока нет. Для решения ваших задач в области управления персоналом необходимо знать ваш контекст. Кроме того, недостаточно использовать только Big Data, необходимо умное экспериментирование. Проверьте на части вашей компании (заводе, дивизионе, департаменте) какую-либо гипотезу, например новую систему мотивации.

Посмотрите, как это работает или не работает. Проверьте на своей компании, что работает у других, – используйте возможности, которые открывает вам доступ к собственной Big Data.

 

 Эта статья была опубликована в десятом выпуске Talent Equity Newsletter "HR Tech: Как новые технологии совершают революцию в HR".

Чтобы просмотреть все выпуски журнала, перейдите в раздел TE Newsletters.