Ми помітили, що в університетах збільшились випадки використання різних механізмів і інструментів створення контенту, в тому числі ChatGPT, Bard.
Інструменти ШІ стали частиною навчального процесу, хоча й з'явились зовсім недавно. Студенти та викладачі почали активно їх використовувати, через те, що вони дуже ефективні, швидкі і мають доступ до значних об'ємів інформації. Але, при написанні, як наукової роботи, так і студентської повинна існувати певна розумна межа використання ШІ, тобто межа зловживання.Наша компанія вирішила створити функціонал, який би відповідав не тільки потребам індивідуальної перевірки, а й при корпоративній перевірці документів на наявність контенту ШІ. Освітня установа, що має ефективні інструменти протидій зловживань, які можуть виникнути при використанні ChatGPT, Bard і інших інструментів ШІ, зможе застерегти студентів від порушення принципів академічної доброчесності і захистити стандарти якості освіти, забезпечити успішне проходження акредитації та підвищити свій рейтинг.
Звіт наявності контенту ШІ знаходиться всередині Інтерактивного звіту подібності, що зручно для аналізу. Також зручно оцінювати роботу на плагіат відразу за двома критеріями і залишати коментарі, зв'язані як з ШІ, так і з плагіатом.
Натиснувши на Подробиці в секції Виявлення контенту зі штучним інтелектом, ви можете відкрити другий звіт.
Наш звіт відображає як коефіцієнт ймовірності ШІ (КЙШІ), так і вірогідність ШІ для кожного фрагменту тексту, зафарбовуючи фрагменти в різні кольори. Кожний колір відображає долю ймовірності чи написаний текст з використанням засобів ШІ, чи людиною. Звіт формує список фрагментів і коефіцієнт ймовірності для кожного фрагменту.
Якщо текст зеленого кольору, ймовірність того, що він написаний машиною мінімальна, якщо червоного - максимальна.
Ці кольори неможливо змінити вручну, прийняти чи відхилити. Ймовірність того, що текст написаний машиною перевіряється модулями та алгоритмами, які є найкращі в даний момент.
Модуль використовує навчання з використанням декількох моделей, в тому числі модифіковану модель BERT, щоб передбачити, чи є контент штучним або оригінальним.
Штучному інтелекту Originality.ai були надані мільйони текстів, написані штучним інтелектом і людиною, після чого його навчили розрізняти їх. Після кожного сеансу навчання використовується великий набір тестових даних для оцінки того, чи є нова модель покращена чи ні.