Одно из самых глубоких изменений в сфере труда за последние десятилетия связано с новыми формами технологий, включая алгоритмы обучения, и с тем, как они внедрили пространство взаимоотношений на работе в так называемом треугольнике работник-менеджер-клиент. Концептуализация социальных производственных отношений в гетерогенном секторе услуг как треугольника работодателей, работников и потребителей является вкладом социологии сферы обслуживания, который стал ключевым в аналитической структуре социологии труда в целом. Хотя продолжающейся оцифровке труда уделяется все большее внимание в различных дисциплинах, большая часть дискуссий была сосредоточена на макроуровне, подсчитывая прирост/потерю рабочих мест. Меньше было сказано о том, адаптируются ли остальные профессии и как именно, а также о возможной напряжённости, вплетённой в формирующуюся структуру работников и цифровых сообществ.
Изменение реляционного пространства труда в его переплетении с цифровыми технологиями, а также алгоритмами машинного обучения - неоднородное и продолжающееся явление, которое ещё предстоит исследовать учёным разных дисциплин. С одной стороны, есть специалисты, которые видят потенциал цифровых технологий для повышения производительности и в то же время для улучшения качества рабочих мест в контексте обеспечения социальной интеграции. С другой стороны, есть те, кто подчёркивает риски замены человеческого труда новыми технологиями, роста неравенства и интенсификации на оставшихся рабочих местах.
Машинное обучение, которое считается расширением прогностической аналитики, представляет собой метод вычислительного обучения, лежащий в основе большинства приложений искусственного интеллекта. Алгоритмы обучения совершенствуются сами по себе, не полагаясь на явное программирование, на заранее определённые инструкции, а благодаря обработке данных, которая опирается на развивающиеся сети соединений, которые становятся более совершенными с каждой дополнительной точкой данных. Извлекая уроки из огромных объёмов наблюдений, в которых данные, извлечённые в одном контексте, объединяются с информацией из других контекстов (а, возможно, даже различной природы), они способны делать выводы и прогнозы. Например, из экономических транзакций, а также взаимодействий между людьми, которые отслеживаются в цифровом виде, посредством обработки, так называемых «больших данных», наряду с цифровым отслеживанием человеческой деятельности по работе мобильных устройств, алгоритмы извлекают шаблоны, которые направляют действия компаний. Алгоритмы, использующие оцифровку практически всего, получают в своё распоряжение гораздо более богатый набор входных данных с целью получения более точных прогнозов.
Важно отметить, что, как и в случае с другими технологиями, алгоритмы политизированы по своему замыслу, поскольку они неявно или явно включают ценностные схемы, убеждения и этические стандарты, которые приводят к политическим последствиям, наделяя определённых людей, объекты, идеи и события большей властью, и делая их заметнее, чем других. В эти технологии заложены допущения, которые не всегда доступны пониманию пользователей, но могут оказывать глубокое влияние на создаваемые знания и решения, принимаемые при их использовании. Таким образом, продолжающиеся технологические изменения, обусловленные алгоритмами, заслуживают углублённого изучения новых форм власти и контроля, которые могут быть созданы искусственным интеллектом.
В современной всесторонне оцифрованной жизни алгоритмы могут легко выполнять несколько действий, которые напоминают интеллектуальную работу. Методы глубокого машинного обучения могут заменить работников в их рутинных когнитивных задачах, сведя человеческую деятельность к наборам правил и шаблонов. Они также могут имитировать способы приобретения работниками неявных знаний в результате длительного опыта. Однако неясно, адаптируются ли остальные профессии к такому положению вещей, и с какой напряжённостью будут складываться отношения искусственного разума с менеджерами и клиентами. Алгоритмы обучения действительно можно считать перформативными из-за степени, в которой их использование может формировать и/или изменять работу организации качественно иными способами.
В контексте рассмотрения треугольника работник-менеджер-клиент, результаты алгоритмического обучения кажутся более объективными, нейтральными и надёжными, чем решения людей. С этой точки зрения, что касается взаимоотношений между сотрудниками и руководителями, алгоритмическое обучение могло бы использоваться для установления желаемой дисциплины на рабочем месте и функционировать как паноптикум. Эти функции также могут рассматриваться как менее поддающиеся манипулированию людьми с потенциальным результатом снижения коррупции в таких областях, как оценка производительности труда и кредитный скоринг в процессах подачи заявок на получение кредита, что ограничивает свободу действий сотрудника (но также и руководителя). В то же время отдельные лица, которых алгоритмы сами классифицируют по категориям, могут быть ошибочно отнесены не к той группе. Это может происходить без полного понимания того, как машина приняла это решение, которое нелегко объяснить или исправить. Причиной этого могут быть сложные взаимодействия и количество входных данных, поступающих в обработку.
Большая часть обсуждений алгоритмических правил/стратегий в настоящее время сосредоточена на статистических методах машинного обучения, которые, в отличие от прошлых, дают результаты, зачастую непостижимые даже для их разработчиков. Учитывая тот факт, что обучающиеся машины не вполне подотчётны, то нынешние технологические изменения рискуют свести работу в области знаний к исполнительной роли людей, сводя на нет ценность практического опыта, которым обладают люди (как социальные субъекты). Работники умственного труда рискуют, что их дискреционные возможности сократятся, а их работа будет разбита на поддающиеся количественной оценке подзадачи (либо конкретные результаты), которые подлежат оценке со стороны руководителей, но также и со стороны клиентов (по данным рейтингов и ранжирования).
Что касается взаимоотношений между сотрудниками и клиентами, необходимо учитывать внедрение сильной культуры продаж в сектор услуг, включая юридические и бухгалтерские услуги, финансы, банковское дело. Многие компании сегодня полагаются на обучающие алгоритмы, позволяющие лучше понимать своих клиентов и потенциальные возможности получения дохода, точнее прогнозировать поведенческие факторы, в меньшей степени полагаясь на опыт и вмешательство сотрудников. Однако исследования ещё не пролили свет на то, как конкретные контекстуальные факторы могут влиять на динамику отношений, выходящую за рамки логики «суверенитета клиента», например, уменьшая или обращая вспять дисбаланс власти между работниками и клиентами, когда сотрудники обладают техническими знаниями и навыками. Пока не наблюдается корреляционной связи работы в сфере обслуживания и умственным трудом. Недавно некоторые исследования начали продвигаться в этом направлении с конкретной привязкой к банковской сфере, однако так пока и осталось непонятным, ограничивает ли или увеличивает технология границы свободы действий, особенно в пространстве отношений между сотрудниками организаций и клиентами. Что касается взаимоотношений с клиентами, то ещё одним вопросом, на котором следует сосредоточиться, является этика. Работа искусственного интеллекта, имитирующая познание и человеческое поведение, не может понять (а значит руководствоваться) этическим выбором и решать моральные дилеммы, с которыми регулярно сталкиваются люди. Это обстоятельство выдвигает на первый план вопросы «технологической морали», в качестве решающего аспекта в контексте использования для банковского или страхового сектора. Усугубляющим фактором будет служить то, что эти сферы подвержены периодически глубоким кризисам и трудным распределением ответственности.