Первым шагом к запуску нового программного проекта всегда является оценка того, что уже существует. Сегодня я изучил предложения, связанные с искусственным интеллектом, для ведущих облачных платформ, чтобы найти лучший вариант для создания нового приложения с использованием технологии искусственного интеллекта. Вот что я узнал.

Для тех, кому не хватает контекста, это связано с серией блогов под названием 30 дней искусственного интеллекта, где я поставил перед собой задачу провести следующие 30 дней, изучая больше об искусственном интеллекте.

Облачные сервисы

Для этой оценки я ограничил свои возможности исследованием трех крупных облачных провайдеров, а также Open AI (включенного в связи с текущим ажиотажем по ChatGPT):

Открытые предложения ИИ

Open AI обеспечивает доступ к ChatGPT-3.5 турбо и ChatGPT-4 программно с их API. Кроме того, у них есть API для выполнения следующих действий:

Предложения AWS

AWS предлагает большой спектр предложений, связанных с искусственным интеллектом, которые перечислены в их маркетинговых материалах. Я выделил несколько выдающихся возможностей для разработчиков, желающих создавать определенные типы приложений или работать со своими собственными моделями машинного обучения.

Высокоуровневые услуги искусственного интеллекта

Amazon предлагает широкий спектр ИИ-сервисов высокого уровня с доступом через API, в том числе:

  • Amazon Lex — API-сервис чат-бота
  • Amazon Polly — сервис преобразования текста в речь
  • Amazon Rekognition — сервис распознавания изображений и анализа видео.
  • Amazon Transcribe — сервис преобразования речи в текст
  • Amazon Textract — Сервис преобразования документов в текстовые сообщения
  • Amazon Comprehend — сервис анализа документов

Машинное обучение

Вот подборка услуг, связанных с AWS ML:

  • Amazon Bedrock — это полностью управляемый сервис AWS, который предоставляет доступ через API к нескольким базовым моделям, предварительно обученным Amazon и другими компаниями.
  • Amazon SageMaker — это полностью управляемый сервис AWS, который позволяет создавать, обучать, маркировать и развертывать собственные модели машинного обучения. Существует прямая интеграция сценариев в SageMaker Studio внутри пользовательского интерфейса консоли AWS, и после развертывания модели она полностью управляется AWS и доступна через частные API.
  • AWS Trainium и AWS Inferentia — это несколько причудливых названий для пользовательских экземпляров виртуальных машин EC2, которые оптимизированы для обучения или запуска моделей машинного обучения с более высокой эффективностью. По данным Amazon, пропускная способность в 3 раза ниже, а затраты на инстансы EC2 до 70 % ниже, чем у стандартных типов инстансов в EC2, а также экономия до 50 % на их обучении.
  • AWS также предлагает больше предложений для самостоятельного управления, например готовые образы для запуска таких вещей, как PyTorch или TensorFlow, непосредственно на экземплярах EC2.

Облачные предложения Google

Google Cloud также предлагает широкий спектр предложений, связанных с искусственным интеллектом, перечисленных в их маркетинговых материалах. Они также предоставляют бесплатный кредит в размере 300 долларов США новым клиентам, желающим опробовать их услуги. В бесплатном курсе Google по генеративному искусственному интеллекту, который я ранее рассмотрел, многие из этих сервисов объясняются и даются вводные сведения.

Ниже я выделил несколько выдающихся особенностей GCS, аналогичных описанным выше в AWS.

Высокоуровневые услуги искусственного интеллекта

Машинное обучение

  • Vertex AI — это полностью управляемый сервис GC, который предоставляет возможность создавать, развертывать и масштабировать модели машинного обучения. У GC также есть инструмент с графическим интерфейсом под названием Generative AI Studio, который напрямую интегрируется с Vertex AI, что упрощает начало работы.
  • AutoML — полностью управляемый сервис для обучения моделей ML, требующий, как утверждается, очень небольшого опыта ML для начала работы.
  • У GC также есть предложения по самостоятельному управлению для запуска моделей на TPU, GPU или в ваших собственных размещенных контейнерах, таких как TensorFlow или PyTorch.

Предложения Microsoft Azure

Microsoft Azure предлагает, пожалуй, самые расплывчатые маркетинговые материалы среди крупных поставщиков облачных технологий искусственного интеллекта. Я обнаружил, что многие устаревшие сервисы Microsoft Azure были переименованы в такие громкие маркетинговые названия, как Azure Databricks или Azure Cognitive Search, вероятно, для того, чтобы извлечь выгоду из нынешнего увлечения искусственным интеллектом. Тем не менее, я выделил несколько выдающихся моментов ниже:

Высокоуровневые услуги искусственного интеллекта

  • Azure AI Bot Service — для создания чат-ботов.
  • Служба Azure OpenAI — доступ через API к запросам модели LLM GTP-3 в рамках модели безопасности Azure. Также имеет ограниченный доступ к службам создания изображений DALL-E (в закрытой бета-версии).
  • Когнитивный поиск Azure — API поиска на основе искусственного интеллекта. Это ребрендинг того, что раньше называлось Azure Search. Имеет простые соединители со многими типами баз данных в Azure.
  • "Текст в речь"
  • Речь в текст
  • Azure AI Vision — сервис распознавания изображений и анализа видео
  • Azure AI Document Intelligence — служба извлечения текста/метаданных документов.

Машинное обучение

  • Azure Machine Learning — полностью управляемая платформа моделей машинного обучения для создания, обучения, развертывания и запуска моделей машинного обучения.
  • Azure также предлагает самоуправляемые предложения с готовыми контейнерами для запуска таких заданий, как TensorFlow или PyTorch, например, с функциями Azure.

Последние мысли

Похоже, что любой из трех крупных поставщиков облачных услуг предлагает примерно одинаковый уровень поддержки API для создания моделей машинного обучения или высокоуровневой разработки для рабочих нагрузок искусственного интеллекта. Однако я был немного разочарован организацией документации/маркетинговых материалов Microsoft Azure, поскольку она гораздо более неорганизована, а многие старые сервисы недавно были бессистемно переименованы, чтобы в их названиях содержалось ML/AI, чтобы они выглядели более привлекательными. Похоже, что Open AI имеет наименьшую поддержку, но, поскольку это самый маленький поставщик, имеет смысл ограничиться в основном доступом к ChatGPT.

Что касается производительности рабочих нагрузок ML/AI, мне показалось, что AWS и Google Cloud могут иметь преимущество перед Azure благодаря своим специальным типам виртуальных машин, оптимизированным для рабочих нагрузок AI. У Azure также есть виртуальные машины с поддержкой графического процессора и графическими процессорами NVIDIA (серии N), но в их документации гораздо меньше заявлений о производительности. Я лично не тестировал эти виртуальные машины на всех трех провайдерах, поэтому YMMV.

Моя рекомендация

Я советую всем, кто прямо сейчас начинает создавать серьезные или крупные приложения на основе искусственного интеллекта, скорее всего, проверить предложения AWS или Google Cloud и сравнить их на основе различий в моделях ценообразования. Для тех, кто заинтересован в более простой разработке с помощью ChatGPT, OpenAI или Azure будут хорошим выбором, поскольку они оба предлагают платный доступ к API. Предупреждение: в настоящее время у Azure есть доступ только к GPT-3, тогда как Open AI может использовать GPT-4

‹‹ МОМ ››

Напишите мне и сообщите, что вы думаете об этих предложениях, особенно если я умолчал что-то важное.