Эти два года рекордные
Они не стали больше зарабатывать, потому что стали лучше работать. Больше зарабатывать стали, потому что появился спрос из-за пандемии и перехода в онлайн.
А вот то что последние два года часты на глобальные сбои, это факт. Гугл, Амазон, Фейсбук, Майкрософт — все они роняли свои облака за это время. Возможно связь с удаленной работой инженеров или просто возросшая нагрузка.
Потому что энтерпрайз и прайваси полиси
По какой причине второй, «хороший» психотерапевт за все время общения не смог задетектить расстройство?
Слушаю доклад от Александра на переход с Пайтона на Кложу с 2014го :)
Та не, просто меньший зоопарк, больше разработчиков на зарплате.
Как я Вас понимаю. Именно по этой же причине сам перешел на мак. Но я ловлю себе на том, что теряю навык чинить поломки. Но на десктопе стоит Manjaro, после обновления на Gnome 40, по старому доброму обычаю, немного все поломалось и перестала запускаться система после логина. Тут то я и вспомнил старые добрые времена. Аж захотелось вернуться назад, полностью на линукс))
А ей и не нужно думать. В скором времени, там где был департамент разработчиков, будет достаточно одного.
«OpenAI показали демо своего проекта Codex — это по сути улучшенная GPT-3 нацеленная ТОЛЬКО на написание программ. И если вы все еще думаете, что программистам ничего не угрожает — посмотрите демо-видео, надеюсь что проймет и вас»
www.youtube.com/watch?v=SGUCcjHTmGY
«Сбер» пояснил, что данное ПО является частью программного комплекса компании, разработанного в рамках научного поиска и создания универсального (сильного) искусственного интеллекта. Это направление компания считает приоритетным и старается его развивать в настоящее время.
habr.com/ru/news/t/569250
Те кто будут использовать эту тулзу, еще обучат нейронку
За поребриком тоже прогресс:
«Сбер» зарегистрировал первую в России созданную ИИ программу для написания кода
“OpenAI has published a paper on Codex, the GPT-based #NLP model for automated code generation.
...
On HumanEval, a new evaluation set we release to measure functional correctness for synthesizing programs from docstrings, our model solves 28.8% of the problems, while GPT-3 solves 0% and GPT-J solves 11.4%. Furthermore, we find that repeated sampling from the model is a surprisingly effective strategy for producing working solutions to difficult prompts. Using this method, we solve 70.2% of our problems with 100 samples per problem.”
arxiv.org/abs/2107.03374
Добро пожаловать в настоящее. Про изменение климата слышали? Гарантий не будет ни в одной точке планеты.
Рассказана последовательность того как нас заменят www.youtube.com/watch?v=gbTEJqC4hhE
Теоретически гиг-контракт должен быть основанием для получения основания для налоговой. Если конечно в законе подобное примут. Это будет хорошим драйвером развития дия.сити за счет экспатов.
Уезжунов придать анафеме?
Что это вы тут забираете хлеб у GPT-3