Як (не) варто використовувати ШІ для просування сайтів
Привіт, DOU. Мене звати Денис Килимчук, я керівник вебстудії WhiteWeb та CEO стартапу з автоматичної перевірки вебсайтів Revalin.
З появою нейромережі GPT-3 та чатбота ChatGPT у відкритому доступі на ринку утворився справжній хаос. Хайп не оминув і нас — наша вебстудія тестувала інструменти штучного інтелекту для всіх стадій розробки та просування сайтів. І зараз ми готові зробити висновки щодо того, що працює шикарно і вже стало частиною наших робочих процесів, а що навпаки тільки шкодить.
Практично всі наші клієнти почали шукати способи зекономити ресурси за допомогою ШІ-інструментів. Деякі з них справді звільнили частину копірайтерів та дизайнерів, залишивши лише кілька «операторів ШІ». Спойлер: не треба так.
Розглянемо ШІ-інструменти, які ми змогли протестувати для розробки та просування вебсайтів. Ось вони:
- генерація ідей;
- створення текстів та картинок;
- написання коду та скриптів для сайтів;
- автоматичний аналіз вебсайтів.
ШІ для генерації ідей
Цей інструмент ми випробували, мабуть, ще в перший день, коли ChatGPT став доступним в Україні. І він виявився на диво корисним.
Типові задачі нейромережа виконує чудово. Наприклад, вона може без проблем написати план односторінкового сайту або згенерувати теми статей для блогу. ChatGPT добре відстежує тренди галузі, що економить час спеціалісту.
Для прикладу, ось які теми ChatGPT запропонував для блогу нашої вебстудії. На мою думку, досить непогані та різноманітні. Трохи докрутити і придумати правильні акценти — і отримаємо хороші матеріали.
Правда, ситуативні матеріали ChatGPT опрацьовує не дуже, але це не зменшує корисність інструменту.
Щодо планів, то ШІ здатен дещо зекономити час спеціаліста, але не більше. Ось який план лендінгу він видав:
Нічого особливого — все стандартно. Але головна перевага: Chat GPT витратив на цей план п’ять секунд, а людина витратила б
Ще одна перевага нейромережі в генерації ідей: повторювати запити можна скільки завгодно разів. За потреби можна створити кілька сотень тем для статей, а потім просто вибрати найбільш актуальні та цікаві.
Створення текстів та картинок для сайтів
Почнемо з картинок. Для генерації візуалів ми пробували нейромережу Midjourney, але робота в нас не склалася. Чисто погратися — цікаво, але для вебсайтів абсолютно не годиться. Навіть абстрактні візуали виходять кривуватими та непропорційними, тому тут точно ні.
А от з текстами вийшло набагато цікавіше. Ми активно тестували можливості ChatGPT для генерації текстів для сайтів. І нейромережа показала себе досить добре.
Короткі тексти на кшталт описів товарів він генерує чудово. Мінімальна редактура — і можна в реліз. За допомогою ШІ копірайтер здатен видавати в
Щодо статей, тут трохи важче. ChatGPT не дуже добре опрацьовує великі тексти, тому приходиться генерувати смислові блоки окремо.
Щоб протестувати цей інструмент, ми взяли статтю, написану нашим копірайтером, та спробували зробити на неї кілька рерайтів. Результат отримали досить непоганий. Згенерований текст потребував редагування та інколи містив надто багато води, але це було однаково швидше, ніж робити все вручну.
Рерайт тексту за допомогою ШІ зайняв приблизно 2,5 години — це приблизно втричі швидше, ніж переписування повністю вручну. Ми зробили три таких рерайти й опублікували їх на агрегаторах.
За кілька місяців ми згадали за них і вирішили подивитися, як вони зайшли. І здивувалися. Виявилося, що всі згенеровані рерайти взагалі не отримали органічного трафіку з пошуковиків. Жодного переходу за ключовими фразами.
Водночас коли ми пробували вбити в Google заголовки повністю, статті знаходило без проблем. Тобто вони були проіндексовані, але пошуковики повністю заблокували органічний трафік на них.
Підтвердження цієї гіпотези ми отримали, коли до нас звернулося кілька клієнтів з однаковою проблемою: відсутній органічний трафік на сайтах. Виявилося, що вони використали ChatGPT для створення всіх описів на сайтах, через що Google відправив їх у тіньовий бан.
Платні способи просування працювали, але органіка була заблокована. І лише після повного переписування текстів та масштабної кампанії лінкбілдінга вдалося повернути сайти в пошукову видачу.
Тому застерігаю: ШІ справді може пришвидшити створення текстових матеріалів для сайту, але є істотні ризики, що згенеровані тексти стануть причиною тіньового бану сайту. Якщо таке трапиться, потенційний недоотриманий прибуток буде в десятки разів вищим, ніж економія на текстах.
Написання коду та скриптів для сайтів
Ми пробували писати код за допомогою ChatGPT та GitHub Copilot. Результати виявилися досить неоднозначними.
З простими і рутинними задачами нейромережі справляються, чим добре економлять час розробникам. Ось, наприклад, ми попросили ChatGPT створити простий парсер на Python, який буде збирати email користувачів та зберігати їх в MongoDB.
Спочатку бот порадив встановити бібліотеки PyMongo та BeautifulSoup4, що цілком логічно.
pip install pymongo beautifulsoup4
Далі він згенерував такий код:
import requests from bs4 import BeautifulSoup from pymongo import MongoClient # Підключення до MongoDB client = MongoClient('localhost', 27017) db = client['emails_db'] collection = db['emails'] def parse_website(url): response = requests.get(url) if response.status_code == 200: soup = BeautifulSoup(response.text, 'html.parser') emails = set() # Приклад пошуку електронних адрес for tag in soup.find_all('a', href=True): if 'mailto:' in tag['href']: email = tag['href'].split(':')[1] emails.add(email) return emails else: print(f"Помилка {response.status_code}: не вдалося отримати сторінку") return None def save_to_mongodb(emails): if emails: for email in emails: collection.insert_one({'email': email}) print("Електронні адреси збережено в MongoDB") else: print("Помилка: Немає електронних адрес для збереження") if __name__ == "__main__": # Замініть це URL на URL веб-сайту, який ви хочете проаналізувати website_url = "https://example.com" # Отримання та збереження електронних адрес parsed_emails = parse_website(website_url) save_to_mongodb(parsed_emails)
Крім коментів у самому коді ChatGPT видав наступне: «Зверніть увагу, що цей код використовує requests для отримання HTML-сторінки та BeautifulSoup для парсингу HTML. Вам потрібно адаптувати код для вашого конкретного випадку, особливо щодо методів пошуку та визначення електронних адрес.
Також не забудьте замінити значення website_url на URL вебсайту, який ви хочете проаналізувати».
Загалом результат прийнятний. Після невеликої кількості правок він буде працювати. Хвилин десять інструмент розробнику точно зекономив.
Але тут є один великий нюанс: щоб нормально використовувати ШІ-інструменти для написання чи оптимізації коду, треба бути, як мінімум, мідлом і на достатньому рівні розуміти всі технології, що використовує бот.
Ми також тестували дещо складніші завдання. Наприклад, дали нейромережі задачу написати форму для вікна чату, що оновлюється в реальному часі. Зрештою з десяти спроб лише одна виявилася приблизно робочою.
У всіх інших варіантах бот забував прописати оновлення, робив грубі помилки в коді або взагалі не створював саме вікно чату. Я вимушений був указувати йому на помилки та просити переписати — задоволення так собі, якщо чесно. Легше написати вручну або знайти потрібний код на GitHub.
Зараз ШІ-інструменти для створення вебсайтів ми практично не використовуємо. У більшості випадків простіше зробити все вручну, аніж танцювати з бубном навколо нейромережі.
Автоматичний аналіз вебсайтів
Штучний інтелект та машинне навчання сильно полегшує обробку великих масивів даних. Саме тому ми вирішили запровадити його в нашому стартапі.
До літа цього року вся система перевірки сайтів на помилки та юзабіліті працювала на строгих алгоритмах. Але після релізу
Крім того, ШІ допомагає нам аналізувати бекенд сайтів: знаходити непрацюючий код, биті посилання та скрипти, які можна оптимізувати. І щобільший вебсайт, то більше часу економить ML — особливо це видно на прикладі великих інтернет-магазинах на тисячі чи десятки тисяч SKU.
Для аналітики вебсайтів інструменти на основі штучного інтелекту та машинного навчання працюють чудово. Але тим не менш, спеціалістів вони замінити не можуть. Адже перевірка помилок та їхнє виправлення все ще відбувається вручну.
ШІ поки не застосовують для перевірки воронок продажу чи логіки сайтів, у нього досить вузьке поле для застосування в розробці порталів, але з рутинними чи технічними задачами він справляється чудово.
Я продовжую вдосконалювати алгоритми ML для перевірки сайтів на помилки, але для себе вже зробив висновки, що саме в цій сфері за ШІ майбутнє.
5 коментарів
Додати коментар Підписатись на коментаріВідписатись від коментарів