11 лучших производителей этикеток 2023 года
Jul 15, 20231 причина, почему Трей Манчини — лучший вариант в дальней зоне «красных», чем Хосе Барреро
May 02, 202421 рецепт тыквенных специй, которые вы захотите приготовить навсегда
Aug 21, 202330 десертов, которые становятся лучше, если добавить кофе
Aug 22, 20235 соображений при выборе расточного инструмента
Aug 11, 2023Meta выпускает Code Llama, код
Meta, стремящаяся произвести фурор в сфере генеративного искусственного интеллекта, изобилующей конкуренцией, находится на каком-то уровне с открытым исходным кодом.
После выпуска моделей искусственного интеллекта для генерации текста, перевода языков и создания аудио компания сегодня открыла исходный код Code Llama, системы машинного обучения, которая может генерировать и объяснять код на естественном языке, в частности на английском.
Подобно GitHub Copilot и Amazon CodeWhisperer, а также генераторам кода с открытым исходным кодом на основе искусственного интеллекта, таким как StarCoder, StableCode и PolyCoder, Code Llama может дополнять код и отлаживать существующий код на различных языках программирования, включая Python, C++, Java, PHP, Машинопись, C# и Bash.
«В Meta мы считаем, что модели искусственного интеллекта, и особенно большие языковые модели для кодирования, больше всего выигрывают от открытого подхода, как с точки зрения инноваций, так и с точки зрения безопасности», — написала Мета в сообщении в блоге, опубликованном TechCrunch. «Общедоступные модели с учетом конкретных норм могут способствовать разработке новых технологий, улучшающих жизнь людей. Выпуская такие модели кода, как Code Llama, все сообщество может оценить их возможности, выявить проблемы и устранить уязвимости».
Код Llama доступен в нескольких вариантах, включая версию, оптимизированную для Python, и версию, оптимизированную для понимания инструкций (например, «Напишите мне функцию, которая выводит последовательность Фибоначчи»), основан на модели генерации текста Llama 2. исходный код Meta был открыт ранее в этом месяце. Хотя Llama 2 могла генерировать код, это не обязательно был хороший код — уж точно не того качества, которое могла создать специально созданная модель, такая как Copilot.
При обучении Code Llama Meta использовала тот же набор данных, что и при обучении Llama 2 — смесь общедоступных источников со всего Интернета. Но модель, так сказать, «подчеркнула» подмножество обучающих данных, включающее код. По сути, Code Llama было предоставлено больше времени для изучения взаимосвязей между кодом и естественным языком, чем Llama 2 — ее «родительской» модели.
Каждая из моделей Code Llama размером от 7 до 34 миллиардов параметров была обучена с использованием 500 миллиардов токенов кода и данных, связанных с кодом. Код Llama, специфичный для Python, был дополнительно доработан на 100 миллиардах токенов кода Python, и, аналогичным образом, код Llama, понимающий инструкции, был доработан с использованием отзывов людей-аннотаторов для генерации «полезных» и «безопасных» ответов на вопросы. .
В контексте, параметры — это части модели, извлеченные из исторических данных обучения, и, по сути, определяют умение модели решать проблему, например генерацию текста (или кода в данном случае), тогда как токены представляют собой необработанный текст (например, «вентилятор, «тас» и «тик» для слова «фантастический»).
Некоторые модели Code Llama могут вставлять код в существующий код, и все они могут принимать около 100 000 токенов кода в качестве входных данных, в то время как по крайней мере одна — модель с 7 миллиардами параметров — может работать на одном графическом процессоре. (Остальным требуется более мощное оборудование.) Meta утверждает, что модель с 34 миллиардами параметров является наиболее эффективной из всех генераторов кода с открытым исходным кодом на сегодняшний день — и самой крупной по количеству параметров.
Вы могли бы подумать, что инструмент для генерации кода будет чрезвычайно привлекателен для программистов и даже непрограммистов — и вы не ошибетесь.
GitHub утверждает, что сегодня Copilot используют более 400 организаций, и что разработчики в этих организациях пишут код на 55% быстрее, чем раньше. В другом месте сайт Stack Overflow, сайт вопросов и ответов по программированию, обнаружил в недавнем опросе, что 70% уже используют или планируют использовать инструменты кодирования AI в этом году, ссылаясь на такие преимущества, как повышение производительности и более быстрое обучение.
Но, как и все формы генеративного искусственного интеллекта, инструменты кодирования могут выйти из строя или представлять новые риски.
Исследовательская группа из Стэнфорда обнаружила, что инженеры, использующие инструменты искусственного интеллекта, с большей вероятностью создают уязвимости безопасности в своих приложениях. Как показала команда, эти инструменты часто генерируют код, который на первый взгляд кажется правильным, но создает проблемы с безопасностью из-за запуска взломанного программного обеспечения и использования небезопасных конфигураций.