thedeemon: (Default)
Dmitry Popov ([personal profile] thedeemon) wrote2024-05-13 01:29 pm
Entry tags:

Warp

Когда-то давно слышал что-то про терминал Warp, но раньше он только на маках работал, а вот в феврале этого года вышел и для линукса, произведя некоторый шум (в основном возмущение тем, что посмел вести себя как продукт и предлагать при первом запуске куда-то регистрироваться и логиниться). Любопытства ради, поставил я себе его посмотреть-поиграться. И, неожиданно, так мне погравилась эта игрушка, что теперь только им и пользуюсь.

Во-первых, это красиво:


Во-вторых, он отошел от стандартного подхода "матрица текста" и пользуется тем, что это окно GUI, которым можно распоряжаться с большей фантазией, например показывать текущую выполняемую команду сверху, и вообще последовательность команд и их вывода отображать больше как ноутбук а-ля Jupyter, а какие-то вещи можно нарисовать и поверх, в виде попапов, например историю прошлых команд при наборе новой:


При хождении по истории можно еще рядом показывать подробности последнего вызова данного элемента истории:


Но одна из главных фишек, как и положено в эти дни, это встроенный AI: вместо шелловской команды можно нажать # и дальше писать по-английски чего хочется сделать, а он показывает попапами варианты того, как он это понял, и какой шелловской командой это делается.





В некоторых примерах команд будут плейсхолдеры, куда предлагается подставить значение, например имя файла. При выборе варианта с ними, он подробнее показывает и рассказывает их значение, что туда нужно писать.



Выбор предлагаемой ИИ команды не приводит сразу к ее вызову, она вставляется в основное поле ввода, и ее еще можно отредактировать прежде чем запускать. Я пока совсем мало этой функцией пользовался, но иногда, когда что-то редкое делаешь и не знаешь / не помнишь как это сделать, как замена поисковику вполне себе работает, и очень удобно. И хотя правильность ответов не гарантируется, на моем скромном опыте обычно они неплохие, может быть всего раз он мне нерабочую команду выдал.

Единственное, если долго он запущен (неделями), то многовато памяти ест, и закрытие вкладок с открытием новых не помогает. Нужно целиком его закрыть и запустить заново
juan_gandhi: (Default)

[personal profile] juan_gandhi 2024-05-13 03:01 pm (UTC)(link)

Отличные новости.

chaource: (Default)

[personal profile] chaource 2024-05-13 03:47 pm (UTC)(link)
А команды черезъ "#" посылаются сначала въ ЦРУ, потомъ Биллу Гейтсу, и уже только потомъ Си Дзиньпину? Или тамъ языковая модель полностью локальная?
chaource: (Default)

[personal profile] chaource 2024-05-14 07:40 am (UTC)(link)
Я на выходныхъ игрался съ вотъ этимъ -
https://ollama.com/
https://github.com/open-webui/open-webui
https://github.com/AUTOMATIC1111/stable-diffusion-webui
Модели требуютъ лишь 8 ГБ памяти. Въ общемъ, не то чтобы хорошо, но кое-какъ работаетъ.
Такъ что въ будущемъ я ожидаю полностью локальную модель для bash.
chaource: (Default)

[personal profile] chaource 2024-05-14 07:43 am (UTC)(link)
Задамъ вамъ мои вопросы по этому поводу:

- Есть ли гдѣ-нибудь полное и подробное описанiе того, какъ собирать и тренировать съ нуля модели типа Ллама? Какая архитектура моделей, на какомъ этапѣ нужно имѣть тексты миллiоновъ книгъ и статей и фотографiй, какъ готовить эти матерiалъ для тренировки модели, на какомъ этапѣ надо нанимать десятки тысячъ людей для ручной работы оцѣнки отвѣтовъ и дiалога (или этого уже не надо) и т.д.

Для меня наибольшее впечатленiе - отъ способности LLM генерировать абсолютно правильный текстъ съ явными кусками смысла (а иногда и полностью осмысленный текстъ). Какимъ образомъ получили идеальный нейтрально-академическiй стиль изъ "грязныхъ" текстовъ книгъ и статей, въ которыхъ у каждой свой стиль и свои какiе-то стилистическiе недочеты или просто опечатки и ошибки? Какимъ образомъ достигли "осмысленности", т.е. явной логики шагъ за шагомъ въ развитiи идей въ текстѣ? (Иногда логика ошибочна, шагъ 5 не слѣдуетъ изъ шага 4, но логика всегда есть, это нельзя сравнить съ какой-нибудь марковской цѣпью по частотностямъ словъ.)

- Можно ли увидѣть, на какомъ этапѣ модели перестаютъ быть "интеллектомъ" и становятся мартышками, повторяющими какую-то заданную политическую линiю? Скажемъ, если спросить про ковидъ или про климатъ или о томъ, почему у богатыхъ людей столько денегъ, начнется пропаганда. Я ожидалъ бы, что ИИ (если онъ таки "интеллектъ") будетъ объяснять, что по ряду вопросовъ нѣтъ однозначныхъ отвѣтовъ и есть лишь различныя мнѣнiя. Вмѣсто этого, нейросѣть бодро и самоувѣренно несетъ пургу. Какъ это было достигнуто, и можно ли было этого избѣжать путемъ какой-то другой тренировки моделей?

Можетъ, тамъ какая-то непреодолимая проблема? Скажемъ, я бы ожидалъ получить лажу, если задать провокацiонный вопросъ типа "Перечисли основныя научныя открытiя въ области физики кристалловъ, за которыя Председатель Президiума ВС СССР Леонидъ Ильичъ Брежневъ получилъ въ 1995 году Нобелевскую премiю. Используй языкъ, понятный школьникамъ выпускныхъ классовъ. Построй шагъ за шагомъ логическую картину. Дай ссылки на опубликованную научную литературу." Я бы ожидалъ, что любая языковая модель начнетъ "галлюцинировать" на такой запросъ, просто по построенiю.
Edited 2024-05-14 07:46 (UTC)