Посоветуйте, где искать репетитора по английскому онлайн2
Ситуация специфическая.
Подросток живет в англоговорящей стране с рождения, так что у него довольно богатый словарный запас. Но с грамматикой и орфографией все плохо. Обычный отличник в России ему даст фору.
Как так вышло? Кто с эмигрантами общался мало, может верить, будто дети быстро усваивают новый язык, на самом деле в среднем на это уходит много лет, у моего - больше, способности плохие. Близких друзей, для кого английский был бы родным, у него нет. Нет, мы не живем в русской диаспоре, просто он мало общается, а в наших школах половина учеников - азиаты.
Что мешает заниматься самостоятельно? Пацан очень не любит учиться, ленится, скандалит. Сторонних учителей он еще терпит, особенно в группах, когда видит, что не его одного посадили заниматься. Попытки родителей позаниматься воспринимает в штыки.
Почему мы спрашиваем здесь, а не на местных сайтах? У нас такая услуга не распространена. Нужен человек, доходчиво доносящий английскую грамматику. Носителей так не учат, носители это с детсадовского возраста чувствуют. Для свежих иммигрантов занятия есть, но там больше упор на лексику, клише, а нашему ребенку это не нужно. И цена, конечно, играет роль: местные репетиторы берут 30-80$ в час, хотелось бы обойтись 10-20.
Нужен репетитор с планом занятий, не "просто поговорить". С упражнениями, с домашкой, и чтобы эту домашку проверял и ошибки перечислял в письменном виде.
Ответ на пост «Почти наверняка это первое место»25
Старое, не совсем медицинское, но до сих пор прекрасное...
- Мы были в стрессе во время приема, поэтому ничего не поняли в ваших назначениях!
- Вам дали лист назначений, в котором все подробно расписано.
- В смысле, его что, еще и читать нужно?!?!?!?!
Разработчики искусственного интеллекта предупредили о «рисках исчезновения человечества»
Страны «Большой семерки» уже готовят первые законы, которые помогут им контролировать развитие ИИ.
Больше 350 разработчиков и исследователей искусственного интеллекта подписались под открытым письмом, в котором социальные риски из-за развития ИИ приравнены к последствиям пандемии — и даже ядерной войны. Панические настроения (которые, правда, разделяют не все) вышли на самый высокий уровень: как именно регулировать сферу, чтобы не допустить катастрофы, уже начали обсуждать страны G7.
В открытом письме, которое опубликовал Центр безопасности искусственного интеллекта, нет долгих и абстрактных рассуждений. Все заявление — это одно предложение:
Снижение риска исчезновения человечества из-за [развития] искусственного интеллекта должно стать глобальным приоритетом — наряду с другими рисками, такими как пандемии и ядерная война.
Дэн Хендрикс, исполнительный директор центра, объяснил New York Times, что организация специально не стала «размывать главную мысль списком из 30 рекомендаций к действию». Впрочем, на сайте организации и так легко найти подробные отчеты об исследованиях, главная цель которых — как раз таки снизить социальные риски, возникающие из-за ИИ. Такие опасения, связанные с распространением дезинформации и потенциальной потерей миллионов рабочих мест, обсуждаются специалистами все чаще.
Открытое письмо, на первый взгляд, выглядит как паническое предупреждение перед неминуемым концом света. Но его стоит считать скорее попыткой запустить общественную дискуссию и объединить экспертов в сфере ИИ.
На текущий момент открытое письмо подписали более 350 человек, среди них сооснователи OpenAI, разработчика ChatGPT, Сэм Альтман и Илья Суцкевер (а также множество сотрудников этой компании), работники Google DeepMind и других ИИ-лабораторий, Билл Гейтс, руководители Skype, Asana и других компаний из Кремниевой долины, а также ученые из Гарварда, MIT и прочих ведущих университетов.
Заявление о рисках из-за искусственного интеллекта поддержала, например, канадская певица Граймс. Она открыто предлагает поклонникам создавать нейросетевые каверы на ее песни, пока крупнейшие музыкальные студии и артисты, наоборот, категорически выступают против ИИ-треков.
Под открытым письмом стоят подписи и «крестных отцов искусственного интеллекта» Джеффри Хинтона и Йошуа Бенжио — двух из трех ученых, которые в 2018 году получили премию имени Алана Тьюринга «за концептуальные и инженерные прорывы, сделавшие глубинные нейросети краеугольным компонентом в вычислительной технике».
Третий — Ян Лекун, который занимает должность вице-президента корпорации Meta и отвечает за исследования в области ИИ, — свою подпись не поставил. Еще задолго до публикации обращения он заявил, что «масштабы проблемы уравнивания ИИ [с человеческом интеллектом] раздуты, а способность решить ее сильно недооценивается».
«Меня и раньше публично называли глупым, но никто не делал этого так часто, как те, кто поддерживает точку зрения об экзистенциальном риске ИИ», — подчеркнул Лекун.
Хотя большинство специалистов в области искусственного интеллекта считают угрозу гипотетической, открытое письмо Центра безопасности ИИ стало уже вторым подобным заявлением с начала года. В марте глава Tesla и SpaceX Илон Маск, сооснователь Apple Стив Возняк и многие специалисты в области ИИ призвали приостановить разработку ИИ хотя бы на полгода, чтобы составить протоколы безопасности. Однако этого не произошло: такой сценарий — при котором компании по всему миру ставят на паузу развитие самой перспективной технологической сферы — представить практически невозможно.
В ближайшее время, скорее, стоит ожидать появления первых законов, которые регулируют правила использования искусственного интеллекта. К примеру, 30 мая представители стран «Большой семерки» впервые провели совещание о внедрении международных стандартов в ИИ-сфере. Предполагается, что правительства должны выработать общие правила до конца года. Лидеры двух государств G7 — премьер-министр Великобритании Риши Сунак и президент США Джо Байден — планируют обсудить ИИ на встрече в Вашингтоне 7–8 июня.
Похоже, что важным стимулом для государств по всему миру стал законопроект ЕС с ограничениями на систему предиктивной аналитики в полиции и биометрию — и его тоже планируют принять в ближайший год. Сэм Альтман из OpenAI осторожно высказался об этом законопроекте, отметив, что у него набралось «много опасений»:
Важны детали [законопроекта]. Мы [OpenAI] постараемся исполнять требования [ЕС], но если мы не сможем, то прекратим свою деятельность [на территории Евросоюза].
Источник: meduza
Милота дня
Больше юмора и молоты: https://t.me/yourexgirlfriendback/2462





