ШІ ТА ОРГАНІЗАЦІЙНА ГНУЧКІСТЬ: ЧИ МОЖЕ ШІ ПОДОЛАТИ ЗАКОНИ ЛАРМАНА ОПОРУ ЗМІНАМ?

Автор(и)

DOI:

https://doi.org/10.31732/2663-2209-2025-79-370-376

Ключові слова:

впровадження ШІ, закони Лармана, організаційна гнучкість, agile‑трансформація, лідерство, управління, взаємодія людина–ШІ

Анотація

Дослідження спрямоване на з’ясування, чи виступає впровадження штучного інтелекту (ШІ) в гнучких (Agile) організаціях справжнім каталізатором трансформації, чи навпаки – вбудовується у наявні структури, підсилюючи типові патерни опору, описані «Законами організаційної поведінки Лармана». Спираючись на теоретичну рамку, що поєднує підходи до agile‑трансформації, організаційних змін і взаємодії «людина–ШІ», проаналізовано опитування 97 практиків з команд розробки ПЗ, продуктового менеджменту та операцій. Анкета оцінює три конструкти: рівень використання ШІ, задоволеність інструментами ШІ та впевненість у точності й надійності результатів, згенерованих ШІ. Розподіли відповідей свідчать про широке, але ще не глибоке впровадження: 79% користуються ШІ для конкретних задач або регулярно (з адаптацією результатів), тоді як лише 3% декларують глибоку інтеграцію. Задоволеність є високою (≈67% задоволені чи дуже задоволені), тоді як рівень впевненості переважно помірний (54% – помірно впевнені; 14% – дуже впевнені). Попередні асоціації демонструють позитивний зв’язок між інтенсивністю використання ШІ, задоволеністю інструментами та впевненістю у результатах ШІ. Отримані патерни узгоджуються з інкрементним шляхом впровадження, коли ШІ застосовується переважно до чітко окреслених, низькоризикових задач без зміни розподілу повноважень і ролей — що емпірично відображає закони Лармана. Для інтерпретації результатів запропоновано концептуальну модель, у якій лідерство й управління (governance) модерують взаємозв’язок між впровадженням ШІ та організаційною гнучкістю: ШІ підсилює гнучкість за умови структурного передизайну та відповідального управління, але ризикує стати поверхневим за незмінних структур. Наукова новизна полягає у (і) екстраполяції законів Лармана на епоху ШІ на основі емпіричних даних з agile‑середовища; (іі) операціоналізації індикаторів ШІ‑підсиленої гнучкості; (ііі) конкретизації управлінських імплікацій, що узгоджують agile‑принципи з відповідальним ШІ. Окреслено обмеження набору даних та напрями подальших лонгітюдних і мультиметодних досліджень.

Завантаження

Дані завантаження ще не доступні.

Біографія автора

Олег Лукутін, ВНЗ «Університет економіки та права «КРОК»

Старший викладач, Університет «КРОК», Київ, Україна

Посилання

Raisch, S., & Krakowski, S. (2021). Artificial intelligence and management: The automation–augmentation paradox. Academy of Management Review, 46(1), 192–210. https://doi.org/10.5465/amr.2018.0072

Larman, C., & Vodde, B. (2016). Large-scale scrum: More with LeSS. Addison-Wesley.

Dikert, K., Paasivaara, M., & Lassenius, C. (2016). Challenges and success factors for large-scale agile transformations: A systematic literature review. Journal of Systems and Software, 119, 87–108. https://doi.org/10.1016/j.jss.2016.06.013

Amershi, S., Weld, D. S., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., Suh, J., Iqbal, S. T., Bennett, P. N., Inkpen, K., Teevan, J., Kikin-Gil, R., & Horvitz, E. (2019). Guidelines for human–AI interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (pp. 1–13). ACM. https://doi.org/10.1145/3290605.3300233

Teece, D. J. (2007). Explicating dynamic capabilities: The nature and microfoundations of (sustainable) enterprise performance. Strategic Management Journal, 28(13), 1319–1350. https://doi.org/10.1002/smj.640

Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114–126. https://doi.org/10.1037/xge0000033

Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005

Zhang, J., & Sheng, Y. (2022). Trust in AI systems: A review. Information & Management, 59(6), 103686. https://doi.org/10.1016/j.im.2022.103686

Microsoft & GitHub. (2023). The impact of AI on developer productivity: GitHub Copilot field study. Retrieved from https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/

Edmondson, A. (1999). Psychological safety and learning behavior in work teams. Administrative Science Quarterly, 44(2), 350–383. https://doi.org/10.2307/2666999

Vakili, K., & McGahan, A. M. (2023). AI and organizational learning. Organization Science. Advance online publication.

McKinsey & Company. (2023). The state of AI in 2023: Generative AI’s breakout year. https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-ais-breakout-year

Downloads

Опубліковано

2025-09-30

Як цитувати

Лукутін, О. (2025). ШІ ТА ОРГАНІЗАЦІЙНА ГНУЧКІСТЬ: ЧИ МОЖЕ ШІ ПОДОЛАТИ ЗАКОНИ ЛАРМАНА ОПОРУ ЗМІНАМ?. Вчені записки Університету «КРОК», (3(79), 370–376. https://doi.org/10.31732/2663-2209-2025-79-370-376

Номер

Розділ

Розділ 2. Управління та адміністрування