OpenAI — одна из ведущих технологических компаний, создавшая популярные ИИ-модели вроде ChatGPT. Сегодня компания работает по гибридной модели: часть остаётся некоммерческой, но большинство разработок — коммерческие продукты, получившие инвестиции на десятки миллиардов долларов.
Журналистка Карен Хао, автор книги Empire of AI, провела более 300 интервью, включая 90 с сотрудниками OpenAI. В недавней беседе с MIT Technology Review она подробно рассказала, как компании вроде OpenAI формируют новую модель влияния — не только технологического, но и социального, политического, этического.
Полный текст статьи Карен Хао https://www.technologyreview.com/2025/07/09/1119784/inside-openais-empire-a-conversation-with-karen-hao/

🐾 Даже котик читает Карен Хао. Потому что осознанность — начинается с понимания, кто и зачем создал инструмент, который вы используете.
Сегодня OpenAI называет себя «некоммерческой организацией с миссией на благо человечества», одновременно привлекая десятки миллиардов инвестиций и действуя, по словам Хао, «как одна из самых капиталистических структур Кремниевой долины». Это противоречие — не просто вопрос пиара. Оно определяет, какой ИИ мы используем в практике.
🔍 Что в этом важного для помогающего практика?
Технологии — не нейтральны. ИИ, с которым мы взаимодействуем, создаётся в конкретных институциональных, финансовых и идеологических контекстах.
Технология не возникает просто потому, что это возможно. Она возникает в результате решений, сделанных людьми. (Карен Хао)
Автоматизация — не всегда усиление. OpenAI сделал ставку на масштаб: больше данных, больше вычислений, больше капиталовложений. Это дало впечатляющий рост моделей — но сопровождалось высокой ценой: энергетической, экологической, социальной.
По данным McKinsey, развитие таких моделей может потребовать до 6 раз больше энергии, чем сегодня потребляет весь штат Калифорния.
Гонка за AGI — политический инструмент. Карен Хао подчёркивает: нет единого понимания, что такое AGI. Но идея, что «именно мы должны первыми её достичь», часто используется для оправдания непрозрачности, централизации власти и исключения других игроков.
AGI (Artificial General Intelligence) — гипотетический ИИ, способный решать любые интеллектуальные задачи так же гибко, как человек. Это не тот ИИ, который мы используем сегодня (например, для транскрибации или анализа речи), а идея «универсального разума». На практике AGI пока не существует — и даже нет согласия, достижимо ли оно вообще.
Есть альтернативы. В книге приводится пример Māori-сообщества из Новой Зеландии, которое разработало ИИ для распознавания родного языка — с прозрачностью, согласиями и вовлечённостью всего сообщества. Это показывает, что возможна иная логика создания и использования ИИ: локальная, этичная, контекстуальная.
Как это связано с ИИ-помощником для психологов?
Мы создаём ИИ-инструмент, который не заменяет специалиста, а помогает ему в рутинной работе: транскрибации, составлении саммари, первичном анализе речи. Наш фокус – на создании узкоспециализированных инструментов, призванных усилить внимание специалиста к деталям сессии, поддержать его рефлексию и предоставить объективную опору для принятия решений – при условии их осознанного и критического использования.
Что важно спросить себя, работая с ИИ:
- Кем и для чего создан этот инструмент?
- Какие данные лежат в его основе?
- Что именно я автоматизирую — процесс или контакт?
- Повышает ли это качество помощи или просто удобство?