بایگانی برچسب: s

انتشار آزاد کد خودروی واقعا خودرو توسط شرکت هکر خودرو

چقدر خوردو! آخه واقعا چرا باید به چیزی که خودش نمی رفته بگیم خودرو؟ فقط چون اسب نداشته؟ به هرحال.. الان شرکت جالب کاما.ای آی که هکری مشهور به اسم جورج شوتز راهش انداخته بود، کد و دیگر تجهیزات تبدیل ماشین به خودرو رو آزاد در اینترنت منتشر کرده. در واقع محصول این شرکت یک کیت ۹۹۹ دلاری بود که می‌تونستین با وصل کردنش به خودروهایی خاص، اون رو در حد تسلا خود راننده کنین. این کیت در تک کرانچ دیسراپت معرفی شد و بعد قانونگذاریها سراغش اومدن!

حرف قانون‌گذارها این بود که اگر کسی می‌خواد چنین محصولی رو بفروشه، باید اول از سازمان ایمنی راه‌ها مجوز دریافت کنه. این هکرها که حوصله اینکار رو نداشتن، به سادگی بیخیال فروش محصول شدن و در تلاش برای تبدیل شدن به اندروید خودروهای خود راننده، محصولشون رو روی اینترنت گذاشتن.

کد ارائه شده به هر کسی اجازه می‌ده بعد از پرینت کردن چند قطعه سه بعدی و نصب برنامه روی یک گوشی وان پلاس ۳ و استفاده از دوربین برای دیدن جاده، از طریق پورت بعضی ماشین‌های هندا و آکورا یک ماشین داشته باشن که بتونه در حد اتوپایلوت در جاده برونه: یک جایگزین بازمتن و آزاد برای برنامه هایی که تسلا استفاده می کنه. سازمان ایمنی جاده ها هنوز در مورد این انتشار آزاد نظر نداده ولی حرفش اینه که اینکار برای جاده ها خطرناکه. طبق قانون کالیفرنیا خودرویی خودراننده وارد خیابان باشه، باید ۵ میلیون دلار بیمه داشته باشه.

خلاصه که فرصت برای ساخت خودروی خودراننده ملی هم فراهمه (: کافیه کدها رو دانلود کنن و یه گوشی و خودروی سازگار هم سفارش بدن و احتمالا خودرو به خوبی می تونه تو جاده های خلوت‌تر حرکت کنه. یه دوستم اخیرا یه فیلم از چنین کاری با چنین برنامه ای برام فرستاده بوده، در حد تست اصلا پیچیده به نظر نمی رسه اگر کمی ماشین باز باشین.

رادیو گیک شماره ۷۲ – ریزه میزه های هدف‌مند

در شماره ۷۲ رادیوگیک هیچ برنامه ویژه ای نداریم. برنامه استاندارد خودمون رو پی می گیریم، به اخبار نگاه می کنیم، به اعماقشون می ریم و در بخش آخر برف ها رو به جلو پارو می کنیم. با هکرها هستیم، با اسپرم ها، از سکس حرف می زنیم و ربات ها و مثل همیشه ماشین های خود راننده ای که ما رو ول نمی کنن. با ما باشین چون خرس های کیوت قراره اطلاعات خصوصی ما رو لو بدن!

با این لینک‌ها مشترک رادیوگیک بشین

اخبار

بازگشت نوکیا

همیشه می گیم رادیو گیک چیزی مستقل از اخبار برندها و عددهاشون است ولی این فرق داره. نوکیا که بر می گرده دو نکته جالب داره. اولی ۳۳۱۰ که حتما شنیدین و بی مزه است و دومی نوکیا۶ که الان اهمیتش رو می گم ولی قبلش از کمپانی اچ ام دی بگیم که ظاهرا تلاش می کنه صدمه مایکروسافت به برند نوکیا رو جبران کنه و حالا با این برند گوشی های جدید می ده. جذابیت خاص گوشی نوکیا ۶ دو تا است: بدنه تمام فلزی و اندروید اصلا انگولک نشده! دقیقا دو تا چیزی که خیلی ها از سازنده های گوشی میخواستن و بهش نمی رسیدن. بخصوص با قیمت ۲۴۲ دلار! این کمپانی از چندین کارمند قدیمی نوکیا تشکیل شده و احتمالا گزینه جدیدی داده به آدم ها برای استفاده از نوکیا. امیدواریم خوب باشه و یک شرکت بالاخره گوشی ای که ما می خوایم رو بسازه. البته کنارش باید اشاره کنیم به ویلی فاکس هم اشاره کنیم که داره!‌

باگ کلاودفلر

کلاودفلر یک سیستم دی ان اس است که کنار دی ان اس کلی سرویس دیگه هم می ده. مثل فشرده کننده صفحات، جلوگیری کننده از حملات، ریدایرکت اچ تی تی پی اس و خیلی چیزهای دیگه. در واقع کلاودفلر صفحه شما رو دریافت می کنه، به دلایل مختلف تغییرش می ده و اونو برای کاربر می فرسته. مثل یک کش خیلی خوب و کارا.

اما چند روز قبل کلاودفر یک خبر بزرگ منتشر کرد: باگ گزارش شده توسط تاویس اورماندی از پروژجت زیرو گوگل بهشون خبر داده که در بعضی صفحات اطلاعات غیر عادی وجود داره! خیلی غیرعادی؛ در حد توکن لاگین یوزرها، پسوردهاشون، ای پی آی کال ها و غیره و غیره. در واقع اطلاعاتی که باید بین هر یوزر کاملا مخفی باشه، حالا به عنوان بخشی از یک صفحه وب در گوشه ای از اینترنت قابل دیدن است!

اشتباه اول خیلی خبرگزاری ها این بود که فکر می کردن این اطلاعات یک‌جا نشست کرده و در دسترس است. اینطور نبود. مساله این بود که اطلاعات برخی سایت های خیلی بزرگ که از کلاودفلر استفاده می کردن در بعضی صفحات بی ربط پخش در اینترنت قابل دیدن بود و هنوزم هست. در واقع مثل این بود که زیر یکی از صفحات جادی.نت بتونین پسورد یک نفر رو ببینین (یا توکن لاگین کردنش رو) و با داشتن اون بتونین به جاش لاگین کنین.

این مساله به خاطر باگ موسوم به Buffer Overrun ایجاد شده بود. باگی که در زبان های سی و سی پلاس پلاس برنامه نویس موظف به مواظب بودن در موردش است و در نتیجه بارها و بارها اشتباها از زیر دست تست ها در می ره و باعث مشکلات امنیتی بزرگ می شه. این باگ اینطوری کار می کنه که یک متغیر از جای تعیین شده برای خودش بیرون می زنه و با بقیه حافظه قاطی می شه! کد زیر دقیقا خطی است که باعث شد کلاودفلر دچار مشکل بشه:

‏if ( ++p == pe )
‏    goto _test_eof;

یک ابزار که قراره صفحه رو بهینه کنه، این رو صدا می زنه و تا وقتی که پوینتر به جای مورد نظر «برسه». حالا چی می شه اگر پوینتر در یک حالت خاص از اینجا بپره؟ تا مدت ها پیش می ره و بقیه اطلاعات حافظه رو توی متغیر مورد نظر می ریزه! همین می شه که سرور کلاود فلری که مثلا صفحه من رو بر می گردونه ممکنه بخشی از حافظه خودش که حاوی اطلاعات حساسه رو هم ته صفحه من برگردونه!

کلاود فلر می گه فقط در ۷ ساعت این مشکل رو حل کرد؛ از طریق درگیر کردن تیم‌هاش در تمام جهان. البته این باگ از هر سه میلیون و سیصد درخواست اچ تی تی پی فقط ۱ دونه رو درگیر می کرد ولی همین هم کافی بود که هنوزم اگر توی گوگل بگردین، ممکنه بتونین توکن های مشابهی رو پیدا کنین!

چه باید کرد

این هم یکی دیگه از اشتباه‌های بعضی منابع است؛ در واقع من و شما به عنوان یوزر کار چندانی نمی تونیم بکنیم. عوض کردن پسورد همیشه ایده خوبیه ولی در بسیاری از این موارد چیزی که لو می ره پسورد نیست (چون اون فقط یکبار رد و بدل می شه). اکثر سرورها برای نگهداری اطلاعات از توکن ها استفاده می کنن (مثلا قسمت هفتم بستون رو ببینین) و این توکن ها دائما دست به دست می شن. حتی اگر شما پسورد رو عوض کنین این توکن احتمالا کماکان در سرور فعال و معتبر است.

پیشنهاد اصلی در مورد وب مسترها و مدیر سیستم ها است و نه یوزرها. برای مقابله و امن شدن در مقابل این اتفاق امنیتی، لازمه مسوولین سایت ها توکن ها رو ریست کنن یا به یوزرها اجبار کنن که دوباره لاگین کنن و پسورد رو تغییر بدن تا حتی جلوی رو رفتگی های پسوردها هم گرفته بشه. شاید کار خیلی راحتی نباشه ولی چاره ای نیست. به احتمالا به همین دلیله که گوگل و چندین سرویس دیگه در طول دیروز از ما خواستن که دوباره وارد سیستمشون بشیم و توکن های قبلی رو غیر معتبر اعلام کردن.

یاد گرفتن همیشگی می تونه برای سلامت، درآمد و زندگی اجتماعی شما خوب باشه

ظاهرا یک بار دیگه ثابت شده که شغل ما خیلی خوبه (: منابع مختلفی دارن می گن برنامه نویسی عالیه و اینم یک تحقیق جدید در این مورد؛ البته برنامه نویسی، علوم پایه یا هر چیز دیگه که لازمه زنده موندن توش، چیز یاد گرفتنه. تحقیق مفصل جدیدی می گه هر جوری که این یادگیری اتفاق بیافته، چه موک ها (آموزش های آنلاین)، چه کتاب، چه یادگیری رسمی و غیره برای درآمد مفید هستن. که منطقی است. همچنین برای سلامت! مطالعه روزانه حتی اگر کوتاه باشه می تونه برای استرس بسیار مفید باشه. همچنین یادگیری مهارت های جدید حافظه رو بهتر می کنه و یادگیری آلات موسیقی می تونه علائم حتی آلزایمر رو کند کنه. اما مهمتر از همه برای ما شاید »تاثیر در زندگی اجتماعی» باشه. توانایی صحبت، کلمات وسیع، کنجکاوی، وسعت اطلاعات و … همه در زندگی اجتماعی سهیم هستن. همچنین در جذابیت از نظر دیگران!

اسپیس ایکس دو نفر رو به ماه می فرسته

البته به دور ماه! کمپانی عجیب اسپیس ایکس اعلام کرده که تا پایان ۲۰۱۸، دو نفر شهروند رو در یک سفر فضایی به اطراف ماه خواهد گردوند. الون ماسک عجیب گفته که این سفر تقریبا ۲ هفته طول خواهد کشید و مسافرها به تنهای سفر خواهند کرد، نه در کنار فضانوردهای حرفه ای و با کمک اونها. این خیلی هیجان انگیزتره! معلومه که ریسک چنین سفری، صفر نیست! ولی آیا این واقعی عملی است؟ اسپیس ایکس حرف های عجیب زیادی زده از جمله برنامه بلندپروازانه رفتن به مریخ و حالا هم از گشتن به دور ماه صحبت می کنه. یادمون باشه که این یه بیزنس است که باید درآمد زا بمونه پس اگر بتونه چنین کاری بکنه براش خیلی خوبه. ماسک گفته از طریق دو سفر در سال، تقریبا ۲۰٪ درآمد مورد نیاز شرکت تامین خواهد شد! البته بحث تکنولوژی هم هست. فالکون هوی هنوز آماده پرواز نیست و یکی از پیش نیازهای سفر به ماه خواهد بود. همچنین دراگون ۲ که قراره سوار فالکون هوی بشه هم آماده نشه و ناسا منتظر است که با این سفینه فضانورد به ایستگاه فضایی بفرسته. گفته می شه اوایل ۲۰۱۸ پرواز آزمایشی دراگون ۲ اتفاق خواهد افتاد. مدیریت پروازی آمریکا گفته برای پرواز به ماه باید از اون مجوز پرواز گرفته بشه و به گفته وکلا احتمالا کار خیلی راحتی هم نیست؛ به خاطر مسائل امنیتی پرواز برای شهروندان عادی. راستی.. با توجه به بحث های رفتن به مریخ، گروهی از وکلا مدعی هستن که باید وکلایی از مریخ دفاع کنن و حق مردم به یک سیاره جدید و این چیزها!

فایرفاکس و کروم بعضی اچ تی پی پی ها رو ناامن اعلام خواهند کرد

فایرفاکس جدید و کروم جدید (یعنی ۵۱ و ۵۶) در همراهی با فشار عمومی اینترنت به سمت اچ تی تی پی اس، شروع کردن به ناامن اعلام کردن بعضی صفحات اچ تی تی پی. آیکن ناامن (همون کلید با خط روش) در صفحاتی نشون داده خواهد شد که توشون دارین یک فرم رو روی اچ تی تی پی ارسال می کنین. این کلید حتی برای تریک قدیمی درست کردن فرم در صفحات اچ تی تی پی و فقط ارسال اون به مقصد امن هم ظاهر می شه چون اینکار چندان امن نیست (ممکنه کسی صفحه رو عوض کنه). البته روش کمی فرق می کنه. فایرفاکس همون قفل خط دار رو نشون می ده ولی کروم دقیقا می نویسه «ناامن» تا توسعه دهنده رو مجبور به اصلاح صفحاتشون کنه. گفته می شه فایرفاکس بعدی قراره کنار هر جایی که پسورد در اچ تی تی پی وارد شده یک علامت یا متن ناامن نشون بده! اینکار مطمئنا فشار رو برای حرکت به سمت اچ تی تی پی اس قویتر می کنه.

گوگل و حفره جدید امنیتی در آی ای / اج

بازهم یک نفر از پروجکت زیروی گوگل مشکل امنیتی بزرگی رو توی آی ای نشون داده که توسط اون می شه کدهای مخرب رو توی بعضی از اینستنس ها ران کرد؛ یک مشکل واقعا حاد. این یک باگ type-confusion است که در ۲۵ نوامبر به مایکروسافت اعلام شده ولی حل نشده. گوگل در پروجکت زیرو می گه مشکلات رو به شرکت ها می گه ولی بعد از ۹۰ روز عمومی می کنه چون تا اون موقع احتمالا کلی آدم در موردش می دونن و ازش سوء استفاده می کنن. ظاهرا در این کد می شه با استفاده از شکل خاصی از سی اس اس کدهای مخرب اجرا کرد. البته من دقیق نگاهش نکردم. نکته جالب خبر این هم هست که چند روز قبل دوباره عینش تکرار شده بود و پروجکت زرو یه باگ دیگه از ویندوز منتشر کرده بود که توش می شد دسترسی داشت به اطلاعات مهم در حافظه. سخنگوی مایکروسافت گفته در هر دو مورد در حال کار روز مساله هستن و انتظار داشتن گوگل زمان اعلام عمومی رو به تاخیر بندازه ولی گوگل می گه نود روز کافی است. [بحث این کشمکش و بازم اشاره به ایران و نبودن مکانیزم]

مشاور امنیت سایبری ترامپ سایتی داره پر از حفره امنیتی

شهردار قبلی نیویورک حالا شده مشاور امنیتی سایبری ترامپ. این انتخاب بعد از کلی انتخاب بد دیگه در حوزه اینترنت، کلی به آدم ها استرس داده. تیم انتقال قدرت ترامپ در متن انتخاب گفتن که «گیولیانی مهارت و دید عمیق خودش رو مثل یک دوست خوب نگران امنیت سایبری بخش خصوصی در اختیار ترامپ خواهد گذاشت و همچنین به راه حل های ارائه شده توسط بخش خصوصی خواهد پرداخت». بعد از این خبر هکرها سایت خود ایشون رو چک کردن؛ این سایت روی یک جوملای قدیمی پر از باگ ران می شه، سرتیفیکیت اس اس ال تاریخ گذشته داره، پی اچ پی آبسلیت استفاده می کنه و حداقل ده ساله که سرور بی اس دی اش آپدیت نشده. درسته که شاید مهم نباشه ولی کسی که گفته «قراره کمک کن همه ما امن تر باشیم» منطقا نباید خودش از چنین کسانی و وضعیتی استفاده کنه. از اونطرف گیولیانی خودش یک شرکت خصوصی امنیت سایبری داره.

موفقیت آزمایش واساکژل روی میمون های نر

در یک موفقیت بی نظیر تاریخی، بالاخره یک داروی پیشگیری از بارداری مردانه روی پرایمت ها کار کرده. توی این آزمایش۱۶ میمون نر رسوس بعد از یکسال فعالیت جنسی مستمر حتی یک مورد بارداری هم نشون ندادن. البته هنوز روش پیشگیری به خوبی روش های زنانه نیست. در واقع یک ژل به مجرایی که اسپرم ازش حرکت می کنه تزریق می شه که اجازه نمی ده اسپرم فعال به مایع منی برسه و برای معکوس کردنش فقط کافیه یک ژل دیگه تزریق بشه که اثر این رو خنثی کنه. کماکان عجیب ولی بسیار بهتر از وازکتومی های فعلی. مرحله بعدی آزمایش روی انسان است و امیدواریم خوب جواب بده ولی کماکان جا برای پیشرفت هست [کمی در مورد اسپرم توضیح بدم!]

در اعماق

حمله کالیشن اس اچ ای ۱ گوگل

اس اچ ای مخفف secure hash algorithm است.. و حالا دیگه سکیور نیست. [ کمی توضیح در مورد هش]. اس اچ ای در ۱۹۹۵ توسط ان اس ای درست شدو حالا که محققین گوگل و یک موسسه در آمستردام تونستن توش یک حمله کالیژن اتک نشون بدن، رسما تموم شده به حساب می یاد. این وضعیت وقتی پیش میاد که امضای دو چیز یکی باشه ولی اون دو چیز با هم فرق کنن. با این روش عملا ثابت شده که اون امضا دیگه اعتبار نداره. تقریبا از یک دهه پیش خطر این مساله خاطر نشان شده بود ولی حالا تونستن عملا نشونش بدن. روش جدید هزینه ایجاد یک هش مشابه برای یک فایل موجود رو بین ۷۵ تا ۱۲۰ هزار دلار تخمین می زنه. با کمک گرفتن از کامپیوترهای ای سی ۲. در این حمله محققین دو تا پی دی اف کاملا متفاوت درست کردن که هش یکسانی دارن. این حمله به تقریبا ۶۵۰۰ سال زمان روی یک سی پی یو و تقریبا ۱۱۰ سال زمان روی یک جی پی یو نیاز داشته. راه پیش رو؟ کمی گپ درمورد توروالدز و نیاز به حرکت به سمت ورژن ۲ یا ۳ همین الگوریتم. و ۹۰ روز دیگه گوگل کد خودش رو منتشر می کنه که عملا به هر کس اجازه می ده کار مشابهی بکنه.

پسری که با ۷۰۰ دلار، هندا سیویکش رو خود راننده کرده

جدی کی تسلا می خره وقتی این پسره با ۷۰۰ دلار و سخت افزارهایی که تو اینترنت می شه خرید و نرم افزارهای آزاد، تونسته ماشینش رو خود راننده کننده؟ هندا سیویک اون به شکل خودکار رانندگی می کنه و مامان بزرگش رو به یک گشت شبونه برده و سالم برگردونده (: البته خود یرگوسن پشت فرمون مواظب بوده که اشتباه نشه و می گه که دوست دخترش حاضر نشده به سیستم اون اعتماد کنه و سوار بشه و به همین خاطر سراغ مادربزرگش رفته (: یک نمایشگر که جای آینه عقب نصب شده می تونه به شکل خودکار گاز و فرمون و ترمز رو کنترل کنه . در حرکتی مشابه یک کمپانی سان فرانسیسکو ابزاری ۹۹۹ دلاری می فروشه که با وصل کردن به ماشین می شه دستور داد که خود به خود رانندگی کنه – حتی در ترافیکی که می ره و می ایسته. البته فروش این ابزار فعلا با دخالت سازمان ایمنی ترافیک کنسل شده! کل ابزار این دوستمون یک تلفن هوشمند بوده که به نرم افزار اوپن پایلوت متصل شده و وصله به سیستم های الکترونیک ماشین و یک جعبه ۳بعدی. این تنها سیستم نیست و جاهای مختلفی مشغول منتشر کردن کدها و سیستم های خود راننده شون هستن. از جمله سایت آموزشی یوداسیتی نرم افزار یکی از دوره هاش رو آزاد منتشر کرده و آدم ها در حال تست و بهتر کردن دائمی اش هستن. [نظرات خودم بخصوص در مورد همکاری با انسپ و بقیه در این ماجرا]. یک اشاره به مشکل دوچرخه هم داشته باشیم. و البته اهمیت اشاره به خبر اینکه پلیس کالیفرنیا می گه ۹ مورد از رد شدن از چراغ قرمز توسط ماشین های خودراننده اوبر رو ضبط کرده. اوبر می گه ماشین های مورد تست نیاز به مجوز تست ماشین خودکار ندارن چون اصولا ماشین های خودکار نیستن و فقط مجهز به یک سیستم پیشرفته کمک به راننده در رانندگی هستن. بحث خودم و بحث بیکار تر شدن راننده ها

حق انفصال از کار

قانون درستی توی فرانسه تصویب شده که احتمالا باید نمونه ای باشه برای دیگران. این قانون رو شاید تو فارسی / عربی بتونیم «انفصال از کار» بخونیم. منطقا من وقتی ساعت کاری ام تموم می شه دیگه موظف به پاسخگویی به کارفرما نیستم. چیزی که برای برنامه نویس ها و بخصوص سیستم ادمین ها تجربه همیشگی است [چند تجربه]. این قانون در فرانسه می گه که کارفرما باید از کارمند بپرسه که چطوری و به چه روشی می شه (و آیا اصلا اجازه دارن) که در خارج از ساعت کاری باهاش تماس بگیرن. طبق قانون مثلا کارمند حق داره موبایلش رو تو خونه خاموش کنه یا جواب نده. در محیط های کاری فعلی و بخصوص بودن لپ تاپ و موبایل شرکت، جدا شدن از محیط کار سخته، یا حتی تشخیص فضای کار و خونه. هنوز قانونی در مورد جریمه شدن شرکت ها نیست و فقط می گه باید توافق بشه اما در نهایت بحث در مورد «حق انفصال از کار» مهمه و چیزی مثل work‪/‬life balance   موضوعی که باید حواسمون بهش باشه.


بررسی برنامه دوربین لخت کن

  • کمی توضیحات در مورد اون
  • کمی توضیحات در مورد برداشت پول
  • کلاه برداری ها
  • باگ ها و سو استفاده – مثلا عضو کردن شما در سرویسی که نمی خواین
  • بحث شکایت و پس دادن پول شما در صورت شکایت طبق یک کامنت که ما نمی دونیم

آخه با رباتم بله؟!

شرکتی هست به اسم ریل باتیکس که هدف عجیبی داره: مدعی است تا آخر امسال یک عروسک رباتیک مجهز به هوش مصنوعی مخصوص سکس به بازار عرضه می کنه! نظر شما چیه؟ حداقلش اینه که نظر دیگران رو پرسیده و نتیجه بسیار جالبه. ۷۸٪ گفتن که با ربات ها دیت می ذارن و مشکلی ندارن. از اونطرف ۲۳٪ گفتن که اگر ربات دارای هوش مصنوعی ای ساخته بشه که شبیه آدم مهشورها باشه حتما باهاش دیت می ذارن؛ بخصوص اسکارت جکسون و ریان رینولدز. در بین جواب دهنده ها (که البته خیلی هم علمی نبوده روش) فقط ۲۲٪ گفتن که فقط علاقمند به آدم واقعی هستن و دنبال ربات نخواهند رفت. بحث های خودم. [به عنوان رابط رابطه از راه دور]، [خیانت است؟]، [فتیش های خاص؟]، … اصلا شماره ویزه لازم داره!

خرس اسباب بازی ای که اطلاعات و پیام های صوتی نزدیک یک میلیون خانواده رو لو داد

یک شرکت سازنده یک خرس اسباب بازی از این قصه های جدید اینترنت چیزها، کل اطلاعات، پسوردها، پیام های صوتی و ایمیل های کسانی که خرس قابل برنامه ریزی اش رو خریده بودن بدون پسورد روی اینترنت نگه می داشت؛ و معلومه که لو رفته!
این خرس کیوت توسط اسپیرال تویز ساخته شده ومی تونه پیام های صوتی بچه ها و پدر و مادرها رو از طریق اینترنت دریافت و برای طرف مقابل پخش کنه. خرسی که پیام مامانتون رو به شما می ده و البته به هر کس دیگه که به دیتابیس وصل بشه (: مساله مشابهی چند وقت پیش بود که وی-تک هک شد و بازم اطلاعات ۵میلیون کاربر به سرقت رفت که بینشون ۲۰۰هزار کودک هم بودن. یک ماه بعدش یک باربی متصل به اینترنت هم مشکل امنیتی پیدا کرد و اجازه داد هکرها مکالمات توی خونه آدم ها رو گوش بدن. [توضیح در مورد اینترنت چیزها و اینکه هنوز در امنیت مشکلات بسیار زیاد داره چون بهش توجه کافی نمی شه].

بخش آخر

بدهی فنی به مثابه پارو به جلو

توضیح بدهی فنی: اتفاق بدی که در کد افتاده و بعدا باید جبران بشه. مثال با نزول خورها یا بانک ها. پس دادن بدهی فنی زمان می خواد و باید بهش توجه بشه. مثلا با ریفکتور کردن. بدهی فنی چطوری پیش می یاد؟ فشار مدیر، بی سوادی اجرا کننده و … اجرای درست هر چیز به زمان بیشتری نیاز داره ولی اگر الان هی عجله کنیم در آینده زمان خیلی بیشتری خواهیم خواست. همینه که هی پروژه ها خرابتر می شن چون می خوایم نتیجه بگیریم. مدیرها باید برای پرداخت بدهی فنی وقت بذارن و ما نمی تونیم به جلو پارو کنیم چون هی سخت تر می شه.

تبریک و تقبیح

تسلیت برای شطرنج که اینقدر بد بود. همه حذف شدن. خیلی ها نیومدن و در نهایت گفته شد مربی بازیکن ما اطلاعات رو منتقل می کرده به بازیکن دیگه.
تبریکی هم داریم به کسانی که در کشورشون ازدواج افراد همجنس قانونی است چون طبق تحقیقات می گن در این جاها نرخ خودکشی جوان ها پایین می یاد.
تبریک به آدم ها که وقتی یک مهندس سابق اوبر گفت در این شرکت فرهنگ مزاحمت جنسی برای خانم ها وجود داره، شروع نکردن خندیدن و مسخره کردن و به جاش اوبر رو از گوشی ها پاک کردن و بالاخره اوبر مجبور به پاسخگویی و دقت در این مورد شد.
تبریک به فرهادی برای اسکار
تسلیتی هم می گیم به اون منظومه هفت سیاره ای مشابه منظومه خودمون که تازه کشف شده چون اگر واقعا شبیه ما باشن احتمالا جای چرتی هستن (:
و البته تبریک به نامزد مهتاب که ۱۲اسفند تولدشه.. و امیدوارم همیشه خوش باشه

نامه ها

موسیقی

  • آهنگ آخر به پیشنهاد یزدان، Nothing else – archive، از البوم Londinium و با صداي زيباي خانوم رويا عرب
  • شارومین – ساقی
  • Nettwerk Music Group – William Fitzsimmons – Fortune (Acoustic)
  • صدای اول از فیلم «به سیلیکون ولی خوش آمدید»

ربات ها دارن قدم به قدم جلو میان و به زودی در همه چیز از ما بهتر می‌شن

چند وقتی است توی جادی.نت و رادیوگیک هی می‌گیم که در فلان بخش و فلان بخش و فلان بخش ربات‌ها (در واقع نرم افزارهایی که ادای آدم ها رو در میارن) هی دارن پیش می‌یان. تا چند وقت پیش شطرنج، بعد سر بازی گو که فکر می‌کردیم ده سالی مونده تا کامپیوترها ما رو شکست بدن سورپریز شدیم و حالا توی دو سه تا میدون جدید!

  • یک بازیکن کامپیوتری پوکر ساخته شده که با استفاده از هوش مصنوعی تونسته در بازی یک به یک چندین پوکر باز حرفه ای رو شکست بده. گفته می‌شه اگر این درست باشه و قابل تکرار، این یک اتفاق بسیار بزرگ است چون در واقع این ماشین می‌تونه بلوف رو درک کنه و بلوف بزنه، اونم در مقابل انسان‌های واقعی. یک مسابقه هفته بعد با حضور پوکربازهای حرفه برگزار می‌شه که توش در حدود ۲۰ روز بازی انجام می‌شه و آمار دقیق‌تری از وضعیت این بازیکن متکی به هوش مصنوعی به دست می‌یاد.
  • در خبر بعدی یک کامپیوتر تونسته با نگاه کردن به عکس های کافی در تشخیص‌های پزشکی همکاری کنه و نتایجی مشابه نتایج متخصصین بده. این سیستم با شبکه های عصبی عمیق کار می کنه (چند لایه تحلیل) و با دیدن چندین هزار تصویر از توده‌های پوستی و استفاده از شبکه عصبی آزاد اعلام شده گوگل، می تونه تشخیص سرطان رو در حد یک متخصص انجام بده. در واقع الان بخش بزرگی از هوش مصنوعی داره به همین شیوه پیش می ره که به یک کامپیوتر ده هزار عکس گربه می گیم و به احتمال زیاد خیلی راحت می تونه در عکس بعدی با تقریب معقولی بگه عکس جدید مربوط به گربه است یا نه.
  • و یکی از چیزهای که حتما باید در موردش حرف زد، روشی است که کامپیوترهای ماشین‌های خودراننده یاد میگیرن رانندگی کنن حتی بدون اینکه از گاراژ بیرون بیان. در واقع یک کامپیوتر می‌تونه تا حد زیادی توی فکرش چیز یاد بگیره. کافیه به چیزی مثل گوگل استریت ویو وصل بشه و خیابون‌ها رو نگاه کنه و تو ذهنش بگه «من چیکار می‌کردم» و نتیجه اش رو ببینه و بستجه. در همین شیوه کامپیوترهایی رو داریم که با دیدن یک بازی یاد می گیرن بازی کنن و موارد مشابه تا جایی که حتی در یک تحقیق یک کامپیوتر توی ذهنش صندلی تصور می کرد و یک کامپیوتر دیگه با دیدن تصورات ذهنی کامپیوتر اول، درک می کرد که صندلی چیه و می تونست صندلی های دنیای واقعی رو تشخیص بده. این در واقع یک خودکفایی آموزشی به ربات‌ها می‌ده که همون چیزی بود که یکسری خیلی تخیلی تصور می شد.

و البته نکته مشترک همه اینها، موتورهای هوش مصنوعی است که به شکل نرم افزار آزاد ارائه شدن و اطلاعاتی که به آزادی در دسترس مردم هستن. یک نشونه دیگه از اینکه انحصار در اطلاعات و جمع کردن کل قدرت در یک جا، شدیدا در حال صدمه زدن به ما است.

با ربات اسپات مینی آشنا بشین و در دقیقه ۱:۳۰ درک کنین که ربات‌ها دارن «جاندار»‌ می‌شن


قبلا هم از محصولات عجیب شرکت بوستون داینامیکز نوشته‌ام و حالا اونها ویدئوی جدیدشون رو منتشر کردن از محصول جدیدشون اسپات مینی. اسپات مینی یک ربات ۲۴ کیلویی است که کاملا به شکل الکتریکی کار می‌کنه و با یک بار شارژ شدن می‌تونه تقریبا ۹۰ دقیقه کار کنه. سنسورهای زیادش بهش اجازه حرکت‌های مختلف رو می‌دن و ژیروسکوپش تعادلش رو حفظ می‌کنه. اسپات مینی می‌تونه به شکل مستقل کارهایی رو بکنه اما فعلا برای کارهای پیچیده‌تر نیازمند هدایت سطح بالا توسط انسانه.

دقیقه ۱:۲۵ تا ۱:۳۰ حتی بعد از چند بار دیدن هم یک «اووخخخ» از من در میاره که هم خطرناکه، هم ترسناک هم نوید بخش هم استرس آور؛ این اوخ برای من یعنی تفاوت بین موجودی که ما بهش می‌گیم جاندار و با احساس و موجودی که ما بهش می‌گیم بی جان و بی احساس خیلی داره به هم نزدیک می‌شه.

بهترین شروع برای درک اینکه کامپیوترها چطور «فکر می کنن»: مقدمه بصری بر یادگیری ماشین

یادگیری ماشین این روزها خیلی روی بورس است. از سیستم های پیشنهاد دهنده تا تشخیص چهره و بقیه چیزها دارن به سرعت پیش می‌رن و ما گاهی ازشون عقب می‌مونیم. این صفحه فوق العاده توضیح می ده که یادگیری ماشین چطوری کار می کنه؛ با تصور و مثال. مدت‌ها پیش اینو دیدیم و جعفر خاکپور زحمت ترجمه رو کشید ولی ایمیل‌نگاری با تهیه کنندگان اصلی تقریبا بدون جواب موند و آخرش همینجا منتشرش کردیم. امیدوارم لذت ببرین و دید خوبی بهتون از این بده که کامپیوترها چطوری فکر می‌کنن و تصمیم می‌گیرن و پیش‌بینی می‌کنن چون لازمه ما منطق پشت هوش مصنوعی رو درک کنیم.

در یادگیری ماشین، کامپیوترها به کمک روش های یادگیری آماری الگوهای داخل داده ها را به صورت خودکار استخراج می کنند. این تکنیک ها میتوانند پیش بینی را با دقت بسیار بالایی انجام دهند. پیمایش صفحه را ادامه دهید. به کمک یک مجموعه داده در مورد خانه های نیویورک و سان فرانسیسکو، ما یک مدل یادگیری ماشین تولید خواهیم کرد که بتواند از روی مشخصات خانه تشخیص دهد که این خانه در نیویورک است یا سان فرانسیسکو

اپل در هوش مصنوعی از گوگل و فیسبوک عقب است؛ به دلیلی جالب

research

اپل مشهوره به مخفی کار کردن و یکهو چیز رو کردن. این شرکت چند وقت قبل استیون لوی رو به دفاتر مرکزی‌اش دعوت کرده بود تا تکنولوژی‌هاش رو به اون نشون بده و اخباری رو درز بده که لرزه به تن حریف‌ها بندازه؛ بخصوص در حوزه یادگیری ماشین و سیری و یادگیری عمیق.

مقاله نهایی که در سایت لوی منتشر شد به چیزهای جالبی پرداخته بود مثل استفاده از یادگیری عمیق برای بهبود تشخیص صدای سیری و درک اون از زبان طبیعی ولی یک چیز بیشتر از همه توش مشهود بود: عقب موندن اپل از فیسبوک و گوگل – تازه در مقایسه با تکنولوژی‌هایی که فیسبوک و گوگل هر هفته آزاد اعلامشون می‌کنن تا مشارکت نسبت بهشون بالاتر بره.

مشکل اصلی اپل ظاهرا عدم توانایی در جذب «بهترین‌ها»ی بازار کار این حوزه است. همونطور که مقاله بلومبرگ هم اشاره می‌کنه، مخفی کاری داخلی اپل در مورد پروژه‌هاش برای دانشمندها یک ترن آف جدی است. برای مثال سال گذشته در بزرگترین کنفرانس هوش مصنوعی سال، کسانی که توی گوگل، مایکروسافت و آی‌بی‌ام کار می‌کردن سخنران‌های پر مخاطبی بودن که مقاله‌های علمی مهمی رو هم در حوزه کاریشون چاپ می‌کنن ولی توی همین کنفرانس کسانی که از طرف اپل شرکت کرده بودن، تا وقتی که مستقیم خطابشون نمی‌کردین و نمی‌پرسیدین «از کجا هستین؟» نمی‌گفتن که از اپل اومدن؛ چه برسه به ارائه مقاله.

مشخصا شما اگر یک دانشمند یا محقق باشین دوست دارین در حوزه کاری خودتون مقاله منتشر کنین تا اسم و رسم و شهرتی در حوزه خودتون به هم بزنین و به همین دلیل هم هست که تاپ تلنت‌ها (بهترین استعدادها؟) تلاششون رو می‌کنن تا در مراکز تحقیق و توسعه شرکت‌های بزرگ کار کنن. معلومه که اگر در مراکز تحقیق و توسعه یکی از شرکت‌های بزرگ کار کنین، یک آدم دیگه بهتون حقوق و وسایل می‌ده تا علم رو پیش ببرین و خودتون هم مشهور بشین؛ به جز حالتی که این مرکز اپل باشه. اگر در اپل کار کنین اجازه چاپ مقاله ندارین و در محیطی مخفی کار می کنین تا محصولی دو سه سال دیگه به بازار عرضه بشه و این مطلوب اکثر آدم‌های علمی نیست.

این مساله برای وضعیت ایران هم می‌تونه صادق باشه. تا جایی که من دیدم شرکت‌هایی که اسم و رسم بهتری در جامعه بازمتن دارن امکان بسیار بهتری برای جذب استعدادهای در حال رشد یا افراد متخصص در حوزه دارن و اگر روند چاپ خروجی‌های واقعی کارها در شرکت ها عملیاتی بشه، احتمالا پیوند ناموجود بین علم و صنعت کم کم ممکنه کمی هویدا تر بشه.

یک نکته برای دولت: منظورم این نیست که شما بیاین یک قانون زور کنین که شرکت های دانش بنیان باید سالی دو تا مقاله ISI هم چاپ کنن! اگر می‌خواین کار مثبتی بکنین قوانین نظارت و کنترل و جهت دهی و مسیربخش و هدف‌ساز و .. رو کم و کمتر کنین.