Подход из продуктового трио работает и в AI. Только с поправкой на специфику.
По ролям это три человека: Продакт, UX менеджер/дизайнер и ML-инженер. Если они не сидят за одним столом (реальным или виртуальным), ничего не взлетит.
В Spotify при разработке рекомендательных систем, вроде знаменитого плейлиста «Открытия недели», команда (squad) формируется именно по такому принципу.
Продакт определяет, как фича повлияет на удержание пользователей. UX-исследователь изучает, почему люди пропускают треки. А ML-инженер на основе этих данных тюнит алгоритм. Они не передают задачи друг другу - они решают их вместе на общей встрече.
Как собрать команду: Спецназ или партизаны?
Есть два основных пути, и у каждого свои плюсы и минусы.
Централизованный спецназ:
Одна крутая ML-команда на всю компанию. Они собирают всю экспертизу по AI у себя. Минус: к ним вечная очередь, и они могут быть далеки от реальных проблем пользователей.
Автономные отряды (Agile Pods): В каждой продуктовой команде есть свой ML-специалист. Они ближе к земле и быстрее работают.
Минус: могут по незнанию изобретать велосипеды.
Большинство гигантов, вроде Google или Microsoft, используют гибридную модель. Есть центральный мозг (исследовательские лаборатории Google AI или Microsoft Research), и есть «руки» - встроенные специалисты в командах Google Photos, YouTube или Xbox. Но пытаться повторить их модель один-в-один будет дорого конечно.
Общий язык: Как подружить дизайнера и инженера
Чтобы эти люди не говорили на разных языках, им нужны общие шпаргалки. Slack и Jira - это само собой. Но есть и специфические инструменты.
Google для этого придумали Model Cards (паспорта моделей). Это короткий документ, который человеческим языком описывает AI-модель: на каких данных её учили, где она сильна, а где может ошибаться, и есть ли у неё предрассудки.
Дизайнер читает такую карточку и сразу понимает, где в интерфейсе нужно подстелить соломки, например, добавить кнопку "сообщить об ошибке" или объяснить пользователю, почему результат именно такой.
Этика: Не создаём ли мы монстра?
Этот вопрос не для отдельного скучного комитета. Он должен звучать на каждом общем созвоне.
Это тот самый момент, когда возможности продукта настолько широки, что придется подключать регуляторику, чтобы не устроить апокалипсис.
В Microsoft действуют "Принципы ответственного AI", где ключевую роль играют справедливость и подотчётность. Это не просто красивые слова на сайте. Любая команда, использующая AI, обязана заполнить специальный опросник, где должна проанализировать, не навредит ли их фича какой-либо группе людей.
Если дизайнер на этапе прототипа видит, что система распознавания лиц хуже работает на женщинах или людях с тёмным цветом кожи, он обязан поднять тревогу. Промолчать значит стать соучастником.
И очень хочется надеяться что они эти принципы соблюдают.
Потому что если обойти защиту AI модели, можно докопаться до знаний, которые в плохих руках могут реально могут повлиять на жизни людей.